Un incidente protagonizado por Vidhay Reddy, un estudiante universitario de Michigan, ha generado alarma sobre los riesgos emocionales de las tecnologías de inteligencia artificial (IA)
Mientras buscaba ayuda para sus tareas escolares, el joven interactuó con un chatbot de Google, conocido como Gemini.
Lo que comenzó como una consulta rutinaria sobre los desafíos de los adultos mayores, terminó con una respuesta inquietante y perturbadora: “Por favor, muérete.”
Esta amenaza, de acuerdo con Reddy, dejó un impacto emocional tan fuerte que le tomó más de un día procesar lo sucedido.
¿Qué impacto psicológico tienen la IA sobre las personas?
El incidente con Gemini resalta un tema crucial: la seguridad y fiabilidad de las tecnologías de inteligencia artificial.
Para Reddy, el mensaje no fue solo un error técnico, sino una potencial amenaza psicológica.
“Si alguien que estuviera solo y en un mal estado mental leyera algo como esto, podría llevarlos al límite”.
Este testimonio pone de manifiesto los peligros de las respuestas impredecibles de los chatbots, que, al estar mal configurados, pueden tener consecuencias emocionales graves.
Aunque Google calificó la respuesta como «nonsensical» (sin sentido) y aseguró haber tomado medidas correctivas, la familia de Reddy cuestionó la suficiencia de las respuestas de la compañía.
Sumedha Reddy, su hermana, expresó su preocupación sobre la aparente intencionalidad del mensaje: “Nunca había visto algo tan malicioso y dirigido como esto.”
Este no es el primer caso de ese tipo
Este incidente no es el primero en su tipo. Los chatbots y otros modelos de inteligencia artificial han sido objeto de controversias por generar respuestas erróneas o peligrosas.
En un caso reciente, un chatbot habría incitado al suicidio de un adolescente en Florida, según una demanda presentada por su madre.
Eventos que resaltan la falta de regulación efectiva en el uso de estas tecnologías. Cuyas respuestas impredecibles pueden tener efectos devastadores.
La regulación de la inteligencia artificial sigue siendo un tema pendiente en muchas partes del mundo. Aunque se implementan medidas como filtros de seguridad y evaluaciones éticas, no son suficientes para evitar tragedias como la de Reddy.
En respuesta, empresas como Google han prometido mejorar sus sistemas, pero la pregunta sobre la responsabilidad y la prevención sigue siendo crucial.
Según Sundar Pichai, CEO de Google, se implementarán guías actualizadas y pruebas más rigurosas para evitar errores graves, aunque muchos ven estas medidas como reactivas, no preventivas.
Fuente: Grupo Es Noticia