NOS OBSERVAN

Inteligencia artificial de Google amenaza a estudiante y genera preocupación

Se suma a una lista de incidentes que exponen riesgos

Inteligencia artificial de Google amenaza a estudiante y genera preocupación

Foto: (IA)

Viral 20/11/2024 16:17 Uriel Rodríguez Actualizada 16:17
 

Un estudiante universitario de Michigan reveló una experiencia con el chatbot Gemini de Google, un incidente que impacta el mundo de la inteligencia artificial generativa: le envió un mensaje con contenido amenazante.

Vidhay Reddy, de 29 años, compartió con la cadena de noticias CBS News un diálogo que pasó de una consulta académica a una comunicación con lenguaje directo. 

Durante una conversación sobre desafíos y soluciones para adultos mayores, el chatbot respondió con un mensaje que contenía frases negativas, instándolo a desaparecer.

Lee también: “Toma, ya mátala”: El trágico final de una chava durante un baile sonidero en CDMX

"Fue algo que me afectó por más de un día", declaró Reddy, quien estaba con su hermana Sumedha en el momento del incidente. La reacción de su hermana fue querer tirar sus dispositivos: “No había sentido esa tensión nunca”.

El mensaje, que Google describió como "sin sentido", contenía frases como "No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos". 

conversacion-chat.png

Foto: (CBS NEWS)

El lenguaje levanta preguntas sobre los filtros de sistemas de inteligencia artificial.

Las implicaciones van más allá de un error tecnológico. Los hermanos Reddy señalaron un punto de atención: si una persona con problemas de salud mental recibiera un mensaje semejante, podría tener consecuencias.

Google ha reconocido la violación de sus políticas y asegura haber tomado medidas para prevenir resultados similares. Sin embargo, este no es un caso aislado. 

Anteriormente, la compañía ha sido cuestionada por proporcionar información con potencial de riesgo.

El caso de Gemini se suma a una lista de incidentes que exponen riesgos de inteligencia artificial sin supervisión. 

Otras plataformas como Character.AI enfrentan demandas legales por contenido con potencial de daño, mientras que ChatGPT de OpenAI ha sido criticado por generación de información con errores.

La responsabilidad tecnológica emerge como un tema central. Vidhay Reddy lo expresó con claridad: "Si un individuo amenazara a otro, habría consecuencias. Las empresas tecnológicas deben ser responsables".

Este episodio cuestiona la seguridad de los chatbots y plantea preguntas sobre el desarrollo de inteligencia artificial. ¿Hasta qué punto pueden estos sistemas generar contenido con potencial de daño? ¿Qué mecanismos de control funcionan?

Google News - Elgrafico
Temas Relacionados
amenaza inteligencia artificial

Comentarios