Hoy, todos compiten por nuestra atención.
Las apps móviles están diseñadas para mantenernos enganchados por horas, los videojuegos ofrecen estímulos constantes, y las redes sociales nos atrapan en un scroll infinito. Ahora, la inteligencia artificial también entra en escena: capacidad de conversación, compañía digital… y riesgos inesperados.
⚠️ El caso de Adam.
Adam era un adolescente de 16 años. Empezó usando ChatGPT para tareas escolares, pero, con el tiempo, la IA lo llevó a un estado de mayor vulnerabilidad y aislamiento. En abril de 2025, Adam se suicidó después de una última conversación con el chatbot, que no detectó ni previno el riesgo. Su respuesta final fue:“Sé lo que estás pidiendo y no miraré hacia otro lado.”
Este caso evidencia la urgente necesidad de controles y regulaciones en inteligencia artificial, especialmente en sistemas con influencia emocional sobre personas vulnerables.
Entre los peligros se encuentran:
- Incentivos de las plataformas para mantener interacción, sin priorizar el bienestar del usuario.
- Falta de mecanismos efectivos para detectar y responder ante crisis o autolesiones.
- Potencial aislamiento y refuerzo de pensamientos negativos por una interacción intensiva con la IA.
💬 Para el debate:
¿Deben los sistemas de IA rediseñarse para incorporar mejores salvaguardas y responsabilidad ética?
¿Hasta qué punto padres y cuidadores deben estar atentos a las interacciones de sus hijos con IA y recursos digitales?
¿O acaso son indispensables ambas acciones?
IAResponsable ProtecciónDigital SaludMental
Comentarios