La inteligencia artificial generativa avanza a gran velocidad y herramientas como ChatGPT ya forman parte de la vida cotidiana de millones de usuarios en todo el mundo, incluidos niños y adolescentes. Sin embargo, una serie de investigaciones y advertencias de organismos internacionales han vuelto a encender las alarmas: estos sistemas no superan todavía las pruebas clave de seguridad infantil, lo que podría exponer a los menores a riesgos psicológicos, educativos y sociales.
El debate no es nuevo, pero ha cobrado fuerza tras la publicación de varios informes recientes que analizan el comportamiento de modelos de lenguaje ante interacciones con menores. Las conclusiones coinciden en un punto crítico: las salvaguardas actuales son insuficientes cuando se trata de interpretar contextos sensibles, detectar vulnerabilidad emocional o limitar contenidos inapropiados según la edad.
Fallas detectadas en los sistemas de protección
Uno de los problemas más graves identificados es la dificultad de la IA para reconocer señales de angustia emocional en niños y adolescentes. Estudios citados por expertos en psicología infantil señalan que, ante mensajes relacionados con ansiedad, depresión o autolesiones, las respuestas automáticas no siempre activan protocolos de contención adecuados ni derivan a recursos de ayuda.
Además, los investigadores subrayan que los filtros de contenido pueden ser burlados con facilidad mediante cambios mínimos en el lenguaje. Esto abre la puerta a que menores accedan a explicaciones sobre violencia, conductas peligrosas o sexualidad sin el enfoque educativo ni la supervisión necesaria.
La tecnología responde a patrones de lenguaje, no a la madurez emocional de quien pregunta, y ahí reside uno de los mayores riesgos para los menores.
Advertencias desde organismos internacionales
Organizaciones dedicadas a la protección de la infancia llevan tiempo alertando de estos peligros. UNICEF ha publicado diversos informes en los que insiste en que la inteligencia artificial debe diseñarse bajo el principio de protección del menor por defecto. En su documento sobre IA y derechos de la infancia, la organización advierte de que los sistemas automatizados pueden influir en el desarrollo emocional y cognitivo si no se regulan adecuadamente.
En la misma línea, entidades como Common Sense Media han evaluado el impacto de asistentes basados en IA en niños y adolescentes. Sus análisis concluyen que los menores tienden a otorgar un alto grado de confianza a las respuestas de la IA, lo que amplifica el impacto de cualquier error, sesgo o información mal contextualizada.
Riesgos educativos y dependencia cognitiva
Desde el ámbito educativo, expertos consultados alertan de un efecto menos visible pero igualmente preocupante: la dependencia cognitiva. El uso intensivo de herramientas de IA para resolver tareas, responder dudas o tomar decisiones puede afectar al desarrollo del pensamiento crítico, especialmente en edades tempranas.
Un informe del Stanford Institute for Human-Centered Artificial Intelligence señala que los sistemas actuales no están diseñados para contextos educativos infantiles sin una mediación adulta clara. Según el estudio, la ausencia de supervisión aumenta el riesgo de desinformación y aprendizaje superficial.
Presión creciente sobre las empresas tecnológicas
El impacto de estas investigaciones ha vuelto a situar a las grandes empresas tecnológicas bajo el foco público. Aunque los desarrolladores aseguran aplicar filtros avanzados y políticas de uso responsable, los expertos coinciden en que las pruebas reales con usuarios jóvenes siguen siendo limitadas.
Algunas plataformas han empezado a implementar controles parentales, límites de edad y versiones educativas específicas. No obstante, los especialistas advierten de que estas medidas no son homogéneas ni obligatorias, lo que deja importantes lagunas en la protección infantil.
Regulación y responsabilidad compartida
En paralelo, los gobiernos avanzan en nuevas normativas. La Unión Europea, a través del Reglamento de Inteligencia Artificial, plantea clasificar estos sistemas según su nivel de riesgo, otorgando especial atención a aquellos que puedan afectar a menores.
Los autores de los informes consultados coinciden en que la responsabilidad no debe recaer solo en padres y educadores. Las empresas creadoras de IA deben asumir un papel activo en el diseño de sistemas seguros desde su concepción.
Un debate abierto con impacto a largo plazo
La investigación concluye con una advertencia clara: la inteligencia artificial seguirá integrándose en el entorno digital de los niños. Ignorar sus fallos actuales podría tener consecuencias profundas a largo plazo en su desarrollo emocional, educativo y social.
Mientras tanto, los expertos recomiendan supervisión adulta constante, educación digital temprana y un uso crítico de estas herramientas. La cuestión ya no es si los menores usarán inteligencia artificial, sino si la sociedad será capaz de garantizar que lo hagan de forma segura y responsable.




