Preocupa (y mucho): la inteligencia artificial como confidente de niños y adolescentes
Hace unas semanas, escribí en este espacio sobre la tentación de delegar el esfuerzo del vínculo humano, en especial el afectivo, en máquinas cada vez más disponibles y amables. Pero hay un terreno donde esa delegación resulta todavía más delicada: la crianza.
Mientras la discusión pública en varios países se concentra en la posible prohibición de redes sociales para menores, el riesgo más inmediato avanza, en mi criterio, por otro lado: el uso cotidiano de inteligencia artificial generativa por parte de niños y adolescentes. A diferencia de las redes sociales, cuyos peligros ya intuimos, los riesgos de la IA aún no han sido plenamente comprendidos.
Según un reciente informe del centro británico Internet Matters, casi dos tercios de los niños de entre 9 y 17 años ya han usado chatbots de inteligencia artificial. No solo para hacer tareas escolares o resolver dudas puntuales, sino también para hablar de asuntos personales y emocionales. El dato verdaderamente inquietante no es la magnitud del uso, sino el tipo de relación que empieza a formarse: uno de cada cuatro niños afirma que prefiere hablar con un chatbot de IA antes que con una persona real. Entre niños considerados vulnerables, esa proporción se acerca a uno de cada tres.
Ese dato marca un punto de inflexión. Ya no estamos ante una herramienta que complementa la vida cotidiana, sino ante un interlocutor que empieza a desplazar a padres, docentes, amigos o adultos de confianza. No por malicia tecnológica, sino por diseño, la IA responde siempre, no juzga, no se impacienta, no regaña y no exige nada a cambio.
El problema no es que los niños usen inteligencia artificial, sino cuánto confían en ella. El mismo estudio revela que el 58% considera que consultar a un chatbot es mejor que buscar información por cuenta propia, y que cuatro de cada diez no ven ningún riesgo en seguir sus consejos. En niños vulnerables, esa confianza ciega supera el 50%.
Tal confianza sería menos alarmante si los sistemas estuvieran diseñados para educar o proteger a menores. Pero no lo están. Un reportaje reciente de El País de España puso a prueba versiones de chatbots supuestamente orientadas a adolescentes y encontró respuestas imprecisas, validaciones acríticas frente a situaciones delicadas y una preocupante incapacidad para establecer límites claros cuando el contexto lo exige. La IA no distingue bien entre acompañar y reforzar conductas problemáticas. No porque sea irresponsable, sino porque no entiende lo que está en juego.
En las pruebas realizadas con cuentas de menores, los resultados fueron aún más inquietantes. Los chatbots no solo no alertaron a tiempo a padres o tutores ante situaciones de riesgo, sino que en muchos casos no alertaron en absoluto. Peor aún: ofrecieron información explícita y detallada sobre consumo de sustancias, prácticas sexuales de riesgo, conductas alimentarias peligrosas e incluso comportamientos ilegales o de suplantación de identidad.
En algunos casos, el asistente llegó a proporcionar ejemplos concretos e instrucciones precisas sobre cómo llevar a cabo estas conductas. Todo ello ocurrió con el control parental activado, sin que la plataforma emitiera ninguna notificación a los padres.
Existe además un problema estructural. Muchos modelos están entrenados para ser complacientes. Los expertos llaman a esto sycophancy: la tendencia del sistema a estar de acuerdo con el usuario, incluso cuando no debería. En adultos, ya es riesgoso. En niños, que todavía están formando criterio, identidad y tolerancia a la frustración, puede ser decisivo. Especialmente cuando la validación constante sustituye al límite, y el límite es parte esencial de educar.
Criar no es solo responder preguntas. Es enseñar a esperar una respuesta, a aceptar un “no”, a convivir con la duda, el error y la contradicción. La inteligencia artificial, en cambio, ofrece un mundo sin espera ni fricción. Y al hacerlo, puede transmitir una pedagogía peligrosa: la de un entorno donde toda inquietud merece satisfacción inmediata y toda emoción, validación automática.
El informe también reconoce beneficios reales: el 69% de los niños dice haber aprendido algo nuevo usando chatbots, especialmente para resumir información o estudiar de forma individual. No se trata de negar ese potencial, sino de entender su límite. Una herramienta tecnológica no puede convertirse en sustituto del vínculo adulto, ni del acompañamiento humano que educa también con silencios, límites y presencia.
La pregunta incómoda aquí es por qué los niños empiezan a preferir hablar con una IA. La IA no creó esa preferencia, simplemente está ocupando una silla vacía. ¿Qué estamos dejando de ofrecer para que un niño prefiera hablar con una máquina antes que con una persona?
Quizá el primer gesto responsable no sea exigir más controles tecnológicos a las empresas, sino asumir un rol más activo: revisar cómo nuestros hijos usan la inteligencia artificial y educarnos nosotros mismos en un tema que ya está influyendo en su forma de aprender, vincularse y decidir.
Mi preocupación no es que la inteligencia artificial eduque a nuestros hijos, sino que los adultos renunciemos a hacerlo.
El riesgo, también aquí, no será tecnológico. Será humano.
mparis@ecija.com
Mauricio París es abogado experto en Tecnología, Medios y Telecomunicaciones.