El pasado 6 de febrero, Google centro mundial de atención de los medios en París. En medio de una alta expectativa, el gigante estadounidense presentó Bardosu nuevo y esperado sistema de inteligencia artificial (IA) capaz de conversar con los usuarios. Con este lanzamiento, Google reclama una plantar cara microsoftque habia anunciado la integracion del revolucionario ChatGPT a su buscador Bing. Sin embargo, las cosas no fueron como esperaron. En la primera demostración de su potencial ante el gran público, Bard respondió a un error de información. Poco después, las acciones de la empresa pagaron una tasa del 8%.

Este fiasco de Google es el lejos de ser un caso aislado. Aunque en un principio nadie se dio cuenta, el chatbot que Microsoft había lanzado justo un día antes repitió errores muy similares. El sistema era capaz de responder a todo tipo de solicitudes de los usuarios, desde explicar la teoría de la gravedad de forma comprensible para un niño de 10 años hasta recomendar los mejores lugares para salir de fiesta en México. Y lo hacía con autoridad, convencido de lo que decía. Sin embargo, eso no evitó que el contenido difundido estuviera plagado de errores allá mentirá.

En las últimas semanas, cada vez más expertos han lanzado mensajes de alarma sobre los riesgos de que la IA sirva para ampliar la desinformación una gran escalada. El pasado noviembre, la empresa IA abierta lanzado en ChatGPT abierto. El programa se ha convertido en un fenómeno global y ha acumulado más de 100 millones de usuarios únicos al mes, siendo la aplicación de consumo de más rápido crecimiento de la historia. Microsoft ha decidido integrar este modelo de conversación con Bing, abriendo la puerta a una revolución de los buscadores web. O, lo que es lo mismo, a cambiar para siempre la forma en que nos informamos en La Internet.

ChatGPT no estoy seguro no estoy seguro

La fascinación por las habilidades de esta tecnología para simular el razonamiento humano ha desaparecido de las expectativas, pero al mismo tiempo nadie teme que surjan ejemplos comparables para los usuarios en el ChatGPT y sus variantes respondan con información falsa. Esta problemática realidad se debe al buen funcionamiento de estas máquinas: están programadas para analizar grandes volúmenes de mensajes de texto escritos que extraen de internet y, a partir de ellos, aprender a construir frases con sentido. Si ChatGPT es el núcleo, el modelo de lenguaje GPT-3 es su corazón.

Sin embargo, que sus respuestas sean verosímiles no significa que sean ciertas. La construcción de estas frases responde a un cálculo de probabilidad, así como si la máquina ha aprendido información falsa que se ha publicado en la web donde se está haciendo esto para replicar esos pelotas. Este es un cálculo probabilístico que incluye poder averiguar si no ocurre, donde se conoce como «alucinaciones». El problema añadido es que ChatGPT no sabe cuando comete errores, así que los presenta como si fueran ciertos. «Si no eres riguroso siempre, no eres confiable nunca», reanudar el analista tecnológico antonio ortiz en el boletus ‘Error505’.

El riesgo va más allá. un estudio de antropogénico –corporación fundada por exmiembros de OpenAI y en la que Google ha invertido 400 millones de dólares– ha señalado que cuanto más grandes sean los patrones de lenguaje Usados ​​​​para programar esos sistemas tienen mayor tendencia a «responder preguntas en formas que crean cámaras de eco repitiendo las respuestas favoritas de los usuarios». Así, pueden servir para decir a los usuarios lo que quieren escuchar para confirmar sus creencias, aunque esas no sean ciertas.

Repite como un loro

El peligro de ChatGPT también es humano. Yes que lo que ha generado más polémica ha sido que Bing aseguró a varios periodistas que consulta «estar vivo» y que había espiado a los ingenieros de Microsoft a través de sus cámaras web. La idea de que las máquinas puedan tener conciencia ha fascinado durante décadas a los seres humanos. Sin embargo, la realidad es más aburrida que la ficción (o la ciencia ficción, en este caso). Los loros son capaces de decir «hola», no porque quieran saludarte, sino porque repiten lo que han escuchado de los humanos. Con la IA pasa algo similar. Esos chatbots pueden recurrir a lo publicado en Internet para interpretar un papel y actuar como si tuvieran sentimientos, pero no los tienen. Así, el empeño y fijación mediática en esa especulación morbosa est un árbol que no deja ver el bosque.

Además, y más, también hay información falsa sobre la intención de la máquina, así como en ChatGPT para difundir «desinformación tóxica a una escala sin precedentes», según anunció hace unas semanas un informe de la organización periodística NewsGuard. Lanzar una campaña de fake news nunca había sido tan fácil.

Corregir los errores

Entonces, ¿por qué han publicado unas IA que pueden difundir mentiras? Microsoft y OpenAI han abierto ChatGPT y el nuevo Bing al público para crear una asociación masiva con millones de usuarios es la mejor manera de corregir errores y hacer que el sistema sea cada vez más preciso. Eso, además, también les permite marcar la agenda en el sector y ser los primeros en este mercado emergente, en el que también quieren despuntar otros gigantes como Meta (matriz de empleo de Facebook), Amazonas oh china Baidu. Google, por su parte, ha optado por ser más cuidadoso y receloso de las invenciones bajo llave para evitar un impacto social negativo. Al menos de momento.

noticias relacionadas

Google eligió esa estrategia por temor a que esos errores le causaran una crisis reputacional, como y les sucedió a sus rivales. En 2016, Microsoft lanzó Tay, un chatbot de IA que opera en Twitter. Dos dias despues tuvo que retirarlo porque podia difundir mensajes racistas y homófobos. «hitler tenía razón», llegó a tuitear. Este desastre de relaciones públicas no es único. El pasado agosto, Meta cómo eliminar AI BlenderBot 3 tras repetir las falsas consignas del fraude electoral que popularizó Donald Trump o conspiraciones antisemitas. En noviembre, también Meta eliminó Galacticasu modelo destinado a asistir a la comunidad científica, tras denuncias de que cometía errores.

Microsoft tiene entre manos lo que puede ser un gran éxito no exento de daños colaterales. Cuanto mayor se la adopción acrítica de esta tecnología mayor será el riesgo de desinformación. Su funcionamiento puede perfeccionarse, pero el peligro está ahí. Aunque es consciente de ello, el director ejecutivo de Microsoft, satya nadella, ve esos debates éticos en un segundo plano. En el primero está la millonaria oportunidad de liderar el negocio del futuro. «Espero que con nuestra innovación (Google) salga y demuestre que puede bailar», confesado un El borde. «Quiero que la gente sepa que les hemos hecho bailar».