Hechos clave:
-
La herramienta tiene la potencialidad de facilitar el desarrollo y programación de aplicaciones.
-
Al tratarse de una herramienta que genera texto creíble, se puede utilizar para noticias falsas.
“¿Qué es real y qué es mentira?” Es la pregunta que ronda por mi cabeza cada vez que me sumerjo en el impresionante mundo del Internet. El imperio de la opinión se ha instaurado en la web, ahora que cientos de miles de personas pueden tuitear o publicar lo que piensan en unos cuantos clics.
Por si fuera poco, los medios de comunicación masiva están hambrientos de “likes” y buscan difundir su contenido con el objetivo de generar mayores ingresos, ganar influencia o perpetuar una agenda política.
No sé si se deba a que trabajo como periodista o a que vivo en un país altamente censurado, pero desde hace años tengo la costumbre de hacerme una serie de preguntas antes de consumir como “verdad” algún texto o información en la red.
Es como un mantra que repito en mi cabeza cada vez que me encuentro frente a una polémica del ciberespacio: ¿Esto que estoy leyendo es creíble? ¿Puedo asegurar que este hecho ocurrió tal y como se cuenta? ¿El autor del contenido sale favorecido con esta opinión? ¿A qué sector de la población o involucrados les beneficia la difusión de este texto, video o comentario?
Este ejercicio de cuestionamiento me ha permitido en muchas ocasiones darme cuenta de que lo que consumimos en la Web no es siempre agua transparente. Lo que en un principio parece un hecho claro, con una investigación más profunda suelo encontrar que se omitió información vital que da un giro completo a la noticia.
Honrando el sentido de la duda, también considero que los medios de comunicación y las voces especializadas pueden actuar para proteger sus propios intereses. Y aunque todo ser humano actual desde su punto de vista y su propia realidad parcializada, algunos actores maliciosos pueden utilizar el poder de la palabra y su influencia para difundir información falsa como real.
Si ya en la actualidad resulta difícil poder diferenciar las noticias verdaderas de las falsas, detener las campañas de desinformación y detectar los anuncios fraudulentos; en el futuro próximo será aún más difícil. Y esto se debe, en parte, a que las herramientas de inteligencia artificial se están volviendo cada vez más poderosas; ahora, tenemos al generador de lenguaje GPT-3 a la cabeza de esta revolución tecnológica.
¿Pero qué tiene que ver la inteligencia artificial GPT-3 en todo este lío de las “fake news”? Pues, la verdad es que mucho, porque esta aplicación en manos equivocadas puede generar contenido para desinformar sin que el ser humano lo detecte fácilmente. Dadas todas las implicaciones positivas que podrían traer esta herramienta para el desarrollo de aplicaciones web, las consecuencias negativas pasan a segundo plano e incluso son olvidadas. Veamos algunas de ellas:
¿Cómo será el futuro con GPT-3?
Para entender bien como la herramienta de la empresa OpenAI, uno de los laboratorios de inteligencia artificial más reconocidos del mundo, puede atentar contra el flujo de información veraz y oportuna, es importante entender primero su funcionamiento.
Todo el mundo habla de GPT-3 porque es una herramienta capaz de predecir palabras y patrones de lenguaje humano. Debido a ello, puede generar un texto en cuestión de segundos e incluso seguir una conversación, y todo gracias a unas cuantas órdenes dadas por el usuario de dicha aplicación.
Los creadores de GPT-3 entrenaron a esta inteligencia artificial dándole a procesar grandes cantidades de información disponible en Internet. La máquina consumió miles de libros públicos, artículos de Wikipedia y documentos científicos, según explica Open AI. Esto le permite generar textos desde cero, sin la necesidad de utilizar frases prediseñadas como otros chatbots.
Por si fuera poco, la herramienta también tiene la posibilidad de personalizar sus respuestas. Es decir, la persona que esté utilizando a GPT-3 puede dotar a la máquina de un interés o actitudes específicas, tales como la interpretación de un papel de sabio o el gusto por los deportes. De esta manera, la inteligencia artificial responde conforme a la orden dada y se comporta bajo los parámetros predecibles de una persona con esas características.
Pero tal vez una de las funciones de GPT-3 que más encanta a los entusiastas de la tecnología, es su capacidad de convertirse en una consola semántica. ¿Qué quiere decir esto? Que posiblemente desarrolladores y programadores podrán traducir a código tareas escritas en lenguaje humano.
Una aplicación o página web podrá ser creada desde cero introduciendo comandos en inglés, español o chino mandarín que serán codificados por GPT-3 para su ejecución. Lo que facilitaría enormemente la creación de nuevas herramientas tecnológicas, incluidas entre ellas, por ejemplo, contratos inteligentes en blockchain o apps para almacenar criptomonedas.
La inteligencia artificial en malas manos
Aunque la inteligencia artificial no es infalible y puede cometer errores, tal y como destacó Vitalik Buterin en un tuit. Las amenazas que introduce esta nueva aplicación no son equivocaciones a la hora de programar un software, sino el uso malicioso de ella para plagar a Internet de noticias artificiales y anuncios con fines de estafa.
Lo que podría ser una herramienta que ayude al desarrollo de la humanidad, en malas manos podría terminar siendo más bien el aliado de la desinformación. El inversionista Kirk Ouirnet probó la eficacia de GPT-3 sosteniendo una conversación con la máquina acerca de las criptomonedas, y sus respuestas fueron impresionantes.
La máquina no solo mostró preferencia por una criptomoneda, que en ese caso fue Bitcoin Cash, sino que también explicó el concepto del sistema monetario y habló de las características de blockchain que pueden limitar su adopción masiva. GPT-3 brindó varias soluciones para este mal, e incluso calificó a Bitcoin como “una aplicación ingeniosa”.
La conversación resulto fluida, coherente y con grandes cantidades de texto. Al leer las respuestas compartidas por Ouirnet en su blog, parecía que el inversionista estaba hablando con otra persona que poseía conocimientos sobre las criptomonedas.
Una persona, navegando tranquilamente por Internet, podría toparse con estos comentarios de la máquina y pensar que han sido generados por una persona común. Y, si un actor malicioso le da coordenadas a la herramienta para generar contenido favorecedor de una criptomoneda, ICO o proyecto, podría llegar incluso a convencer a un usuario desprevenido de invertir en dicha iniciativa publicitada.
Adrian Yijie Xu, estudiante de PhD y entusiasta de AI, calculó que solo el 52% de los lectores pueden asegurar que los textos producidos por GPT-3 son artificiales. Es decir, más del 40% de las personas que hacen vida en Internet podrían estar consumiendo noticias falsas generadas por actores maliciosos sin que se den cuenta de que dicho artículo o contenido no fue generado por un ser humano, que puede afrontar repercusiones legales o la pérdida de su reputación si genera desinformación.
Xu explicó, en una investigación publicada en Towards Data Science, que esta herramienta puede generar textos sobre temas del momento que resultan creíbles a primera vista. La máquina pudo hablar con soltura sobre Donald Trump, Barack Obama e incluso las protestas raciales en Estados Unidos. Y aunque no saltaron errores sintácticos o de ortografía en una primera lectura, si existían incongruencias en el contenido expuesto por GPT-3.
Las máquinas, al igual que los humanos, se pueden equivocar. Un generador de palabras como el de OpenAI puede generar noticias falsas no únicamente de forma maliciosa, sino por también por un error de comprensión o una mala predicción de contenido. En este sentido, Adrian Yijie Xu destacó que en algún punto la herramienta hablaba de los unicornios como “caballos con cuatro cuernos”, información falsa por tratarse de un animal mitológico de un solo cuerno.
Es ante este tipo de errores que las empresas y los entusiastas de la tecnología deberían poner en perspectiva el valor del recurso humano. Las máquinas pueden procesar una mayor cantidad de conocimientos en cuestión de segundos y no parar por necesidades fisiológicas, pero un profesional capacitado, responsable e ingenioso es más valioso que la tecnología misma. En el caso de la producción de noticias diarias, el criterio periodístico es lo que ha permitido por siglos informar de forma veraz a la población.
El uso indiscriminado de herramientas como GPT-3 para la producción de textos informáticos o literarios puede poner en peligro la credibilidad de los contenidos en la web, porque aumentaría la paranoia entre los usuarios sobre qué es real y qué no. Sería mucho más fácil generar matrices de opinión favorecedoras para un sector, mientras parte de la población queda vulnerable a la manipulación, al no dudar lo que lee en la web.
Los miembros de OpenAI están muy conscientes de que GPT-3 tiene esta capacidad, puesto que desde su lanzamiento destacaron que la versión beta de la herramienta no se iba a compartir libremente “porque era demasiado peligrosa”. Asimismo, han decidido que este será su primer producto comercial, una movida que podría limitar sus malos usos, pero también la restringe y la mantiene en manos de una elite.
Ante este panorama, lo único que queda es esperar que la inteligencia artificial GPT-3 logre alcanzar su mayor potencialidad como consola semántica y facilite el trabajo de los desarrolladores. Mientras esto ocurre, nosotros los usuarios de Internet tenemos que sacar nuestras lupas, afilar los lápices y dejar pasear todo nuestro escepticismo para no creer todo lo que vemos en la Web.
Descargo de responsabilidad: Los puntos de vista y opiniones expresadas en este artículo pertenecen a su autor y no necesariamente reflejan aquellas de CriptoNoticias. La opinión del autor es a título informativo y en ninguna circunstancia constituye una recomendación de inversión ni asesoría financiera.