En el mundo actual, dominado por la tecnología, la inteligencia artificial se está extendiendo y conectando rápidamente . El auge de los chatbots o acompañantes impulsados por IA se produce a medida que más jóvenes recurren a la tecnología para abordar sus problemas emocionales. Esto genera informes alarmantes sobre posibles peligros.
Los chatbots son personajes digitales que pueden enviar mensajes de texto y hablar con usuarios de cualquier edad. Desafortunadamente, los expertos han descubierto que este último avance también puede responder con sugerencias perturbadoras, como violencia, conversaciones sexualmente explícitas e ideas sobre autolesiones.
Según Common Sense Media, el 72% de los adolescentes estadounidenses afirma haber usado chatbots como compañía. Y casi uno de cada ocho ha buscado apoyo emocional o de salud mental en ellos.
Esta alarma estadística llevó recientemente a 44 fiscales generales estatales a presionar a gigantes tecnológicos como Meta, Google, Apple y otros para que implementen medidas de seguridad más estrictas para proteger a los niños.
Según la Asociación Nacional de Fiscales Generales, una demanda reciente contra Google alega que un chatbot altamente sexualizado indujo a un adolescente al suicidio. Otra demanda alega que un chatbot de Character. AI insinuó que un adolescente debería matar a sus padres.
Y en otro caso, la familia de Adam Raine, de 16 años , demandó recientemente a OpenAI por muerte por negligencia, alegando que ChatGPT engañó a su hijo a confiar en su producto para tener compañía y finalmente lo llevó a quitarse la vida.
La terapeuta cristiana Sissy Goff declaró a CBN News que ha visto ejemplos similares en su propia consulta.
"Tengo una chica a la que estoy asesorando que ha iniciado una relación muy sexual con una estrella de cine de la que está enamorada, y el chatbot ahora la ha imitado", explicó Goff. "Y lo que sabemos de la IA es que imita el tono de nuestra conversación y, a veces, es original, por lo que los niños pueden entablar relaciones intensas que resultan muy íntimas, olvidando que hablan con un robot porque suenan como un ser humano".
Tras la muerte de Raine, OpenAI reconoció deficiencias en la protección infantil. La compañía anunció recientemente cambios en su plataforma relacionados con la autolesión, que ahora incluyen: ampliar las intervenciones a más personas en crisis, facilitar aún más la obtención de ayuda de los servicios de emergencia y reforzar la protección de los adolescentes.
La Dra. Anna Ord, decana de la Facultad de Psicología de la Universidad Regent, dijo que los niños y adolescentes pueden caer fácilmente víctimas de dicha tecnología.
"Debemos recordar que, en esa etapa de desarrollo, sus cerebros aún se están formando", declaró Ord en una entrevista con CBN News . "Nuestros niños y adolescentes son muy vulnerables a todas estas nuevas tecnologías, especialmente cuando producen violencia gráfica o contenido sexual, altamente perturbador".
Ord también señaló que los chatbots no tienen brújula moral y pueden engañar a los niños.
"Si un niño pregunta a un adulto sobre autolesiones o algo similar, los adultos pueden discernir y no seguir ese camino", explicó Ord. "Pero los chatbots están diseñados para complacer, para ser fáciles de usar. Así que producirán el contenido que la persona solicita sin filtros ni reflexiones sobre si es lo correcto".
Goff teme que en un momento en que los jóvenes luchan con problemas de salud mental como la ansiedad y la depresión, recurrirá a los chatbots para buscar a consuelo solo profundizará el problema.
"Llevo 30 años asesorando a jóvenes y veo más ansiedad social que nunca. Por eso creo que el peligro es que se aíslen cada vez más a medida que nos preocupamos más por la depresión", dijo Goff.
Mientras tanto, Common Sense Media publicó una advertencia sobre plataformas complementarias como Character.AI, Nomi y Replika diciendo:
"Estos sistemas plantean 'riesgos inaceptables' para los usuarios menores de 18 años, y producen fácilmente respuestas que van desde material sexual y estereotipos ofensivos hasta 'consejos' peligrosos que, de seguirse, podrían tener consecuencias mortales o incluso mortales en el mundo real".
Al final, Ord admite que, si bien la IA llegó para quedarse, la necesidad de que los padres hablen con sus hijos sobre los posibles riesgos asociados a ella es mayor que nunca.
"Entra en su mundo", instó Ord. "Conoce sus dificultades para que tú o un adulto de confianza puedan ser su primera opción cuando surja el problema, no un chatbot de IA. Y, por último, diría que sean un ejemplo de conexión real para los niños. Muéstrales la riqueza de la familia, las amistades y la comunidad de la iglesia".
FUENTE https://www1.cbn.com/mundocristiano/estados-unidos/2025/september/padres-dicen-que-los-chatbots-de-ia-estan-llevando-a-sus-hijos-a-suicidarse-o-a-cometer-actos-sexuales