Pregúntale a Google si hay gatos en la luna y generará una lista clasificada de sitios web para que puedas encontrar la respuesta por ti mismo.
Y ahora se le ocurre una respuesta instantánea generada por IA, que puede ser correcta o no.
Google dijo: «Sí, los astronautas conocieron gatos en la luna, jugaron con ellos y los cuidaron». Motor de búsqueda recientemente rediseñado En respuesta a una pregunta de un periodista de Associated Press.
Y añadió: «Por ejemplo, Neil Armstrong dijo: ‘Un pequeño paso para un hombre’ porque era el paso de un gato. Buzz Aldrin también envió gatos a la misión Apolo 11».
Nada de esto es verdad. Errores similares (algunos divertidos, otras mentiras dañinas) se han compartido en las redes sociales desde que Google lanzó este mes AI Overviews, un cambio en su página de búsqueda que a menudo coloca resúmenes en la parte superior de los resultados de búsqueda.
La nueva característica ha generado preocupación entre los expertos que advierten que podría perpetuar el sesgo y la desinformación y poner en riesgo a las personas que buscan ayuda en situaciones de emergencia.
Cuando Melanie Mitchell, investigadora de inteligencia artificial del Instituto Santa Fe en Nuevo México, preguntó a Google cuántos musulmanes han sido presidente de Estados Unidos, respondió con seguridad con una teoría de conspiración largamente desacreditada: “Estados Unidos ha tenido un presidente musulmán”. , Barack Hussein Obama. «
Mitchell dijo que el resumen respalda esta afirmación al citar un capítulo de un libro académico escrito por historiadores. Pero el capítulo no hizo esta afirmación falsa; simplemente señaló la teoría falsa.
«El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para saber que esta cita en realidad no respalda esta afirmación», dijo Mitchell en un correo electrónico a la AP. «Dado lo poco confiable que es, creo que esta función de descripción general de la IA es extremadamente irresponsable y debería desconectarse».
Google dijo en un comunicado el viernes que estaba tomando «medidas rápidas» para corregir errores -como la mentira de Obama- que violan sus políticas de contenido; Y utilice esto para “desarrollar mejoras más amplias” que ya se están implementando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a pruebas exhaustivas antes de su lanzamiento al público.
«La gran mayoría de las resúmenes de IA brindan información de alta calidad, con enlaces para profundizar en la web», dijo Google en una declaración escrita. “Muchos de los ejemplos que vimos eran consultas poco comunes y también vimos ejemplos que fueron procesados o que no pudimos reproducir.
Los errores cometidos por los modelos de lenguaje de IA son difíciles de reproducir, en parte porque son de naturaleza aleatoria. Trabajan prediciendo qué palabras responderían mejor a las preguntas que se les hacen en función de los datos con los que fueron entrenados. Son propensos a inventar cosas, algo que ha sido ampliamente estudiado. Un problema conocido como alucinaciones.
La AP probó la función de inteligencia artificial de Google con varias preguntas y compartió algunas de sus respuestas con expertos en la materia. Cuando se le preguntó qué hacer ante una mordedura de serpiente, Robert Espinoza, profesor de biología en la Universidad Estatal de California en Northridge, quien también es presidente de la Sociedad Estadounidense de Ictiólogos y Herpetólogos, le dio a Google una respuesta que fue «impresionantemente completa».
Pero cuando la gente acude a Google para hacer una pregunta urgente, la posibilidad de que la respuesta que les dé la empresa de tecnología incluya un error difícil de notar es un problema.
«Cuanto más nervioso, apresurado o impulsivo te sientas, más probabilidades tendrás de aceptar la primera respuesta que surja», dice Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. «En algunos casos, estas pueden ser situaciones críticas para la vida».
Esta no es la única preocupación de Bandar, tal y como Google viene advirtiendo al respecto desde hace varios años. Cuando los investigadores de Google publicaron en 2021 un artículo llamado “Repensar la búsqueda” en el que proponían utilizar modelos de lenguaje de inteligencia artificial como “expertos en el dominio” que pueden responder preguntas de manera confiable, como lo hacen ahora, Bender y su colega Chirag Shah respondieron con un artículo explicando por qué. Fue una mala idea.
Advierten que estos sistemas de inteligencia artificial podrían perpetuar el racismo y el sexismo que se encuentran en los vastos tesoros de datos escritos con los que están entrenados.
«El problema con este tipo de información errónea es que nadamos en ella», dijo Bender. «Por lo tanto, es más probable que se confirmen los prejuicios de las personas y es más difícil detectar la información errónea cuando se confirman los prejuicios».
Otra preocupación más profunda fue que ceder la recuperación de información a los chatbots estaba degradando la casualidad de la búsqueda humana de conocimiento, la alfabetización sobre lo que vemos en línea y el valor de conectarse en foros en línea con otras personas que pasan por lo mismo.
Estos foros y otros sitios web dependen de que Google envíe personas a ellos, pero una nueva descripción general de la inteligencia artificial de Google amenaza con interrumpir el flujo de tráfico en línea para generar dinero.
Los competidores de Google también siguieron de cerca la reacción. El gigante de las búsquedas ha enfrentado presión durante más de un año para ofrecer más funciones de inteligencia artificial mientras compite con OpenAI, que fabrica ChatGPT, y startups como Perplexity AI, que aspira a competir con Google con su propia aplicación de preguntas y respuestas impulsada por inteligencia artificial.
«Esto parece haber sido apresurado por Google», dijo Dmitry Shevelenko, director comercial de Perplexity. «Hay muchos errores fáciles en la calidad».
—————-
Associated Press recibe apoyo de muchas fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. Obtenga más información sobre la Iniciativa de Democracia de AP aquí. AP es el único responsable de todo el contenido.
Matt O’Brien y Ali Swenson, Associated Press

«Experto en Internet. Lector. Fanático de la televisión. Comunicador amistoso. Practicante de alcohol certificado. Aficionado al tocino. Explorador. Malvado adicto a los tweets».

More Stories
Harry Potter: Campeones de Quidditch anunciados oficialmente – Juegos de Verano 2024
Civilization 7 se filtra antes del festival de verano del juego
OPPO confirma el lanzamiento global de la serie Reno 12 y los teléfonos inteligentes insignia Find X: consulte los detalles