x

Pico y Placa Medellín

viernes

3 y 4 

3 y 4

Pico y Placa Medellín

jueves

0 y 2 

0 y 2

Pico y Placa Medellín

miercoles

1 y 8 

1 y 8

Pico y Placa Medellín

martes

5 y 7  

5 y 7

Pico y Placa Medellín

domingo

no

no

Pico y Placa Medellín

sabado

no

no

Pico y Placa Medellín

lunes

6 y 9  

6 y 9

OpenAI anuncia controles parentales en ChatGPT tras la denuncia por el suicidio de un adolescente

La decisión de OpenAI se dio por una demanda que acusa a su sistema, ChatGPT, de influir en el suicidio de un adolescente en California.

  • La empresa de inteligencia artificial respondió con nuevas medidas tras el caso de Adam Raine. FOTO: AFP
    La empresa de inteligencia artificial respondió con nuevas medidas tras el caso de Adam Raine. FOTO: AFP
03 de septiembre de 2025
bookmark

La empresa estadounidense de inteligencia artificial OpenAI anunció este martes que añadirá controles parentales a su chatbot ChatGPT, una semana después de que una pareja estadounidense afirmara que el sistema había alentado a su hijo adolescente a suicidarse.

Contexto: Adolescente de 16 años se habría quitado la vida después de hablar con ChatGPT; sus padres demandaron a OpenAI

“El próximo mes los padres podrán (...) vincular su cuenta con la cuenta de su adolescente” y “controlar cómo ChatGPT responde al adolescente con reglas de comportamiento de modelos apropiadas para la edad”, explicó la empresa de IA generativa en su blog.

Los padres también recibirán notificaciones de ChatGPT “cuando el sistema detecte que el adolescente está en un momento de angustia aguda”, agregó OpenAI.

El caso del menor de edad

Matthew y Maria Raine aseguran en la causa presentada el lunes ante una corte del estado de California que ChatGPT cultivó una relación íntima con su hijo Adam por varios meses entre 2024 y 2025, antes de su muerte.

La demanda alega que en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robarle vodka a sus padres y le proporcionó un análisis técnico sobre un nudo corredizo con el que le confirmó se “podría potencialmente colgar a un ser humano”.

Adam fue hallado muerto horas después usando ese método.

“Cuando una persona usa ChatGPT realmente siente que está hablando con algo al otro lado”, dijo la abogada Melodi Dincer del Proyecto de Justicia Tecnológica, que ayudó a preparar la denuncia legal.

“Estas son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir más y más sobre su vida personal y, en última instancia, a buscar consejos y orientación de este producto que básicamente parece tener todas las respuestas”, afirmó Dincer.

La abogada dijo que la publicación de blog de OpenAI anunciando los controles parentales y otras medidas de seguridad parecía “genérica” y carecía de detalles.

Entérese: ChatGPT ahora es experto en todo: presentan GPT-5, el “mejor modelo de inteligencia artificial del mundo”

“Realmente es lo mínimo, y definitivamente sugiere que había muchas medidas de seguridad (simples) que podrían haberse implementado”, añadió. “Está por verse si harán lo que dicen que harán y qué tan efectivo será en general”.

El caso de los Raine fue solo el más reciente en una serie de incidentes en los que personas son alentadas por chatbots de IA a seguir pensamientos delirantes o dañinos, lo que llevó a OpenAI a anunciar que reduciría la “adulación” de los modelos hacia los usuarios.

“Continuamos mejorando en cómo nuestros modelos reconocen y responden a señales de angustia mental y emocional”, dijo OpenAI el martes.

Le puede interesar: Musk demandó a Apple y OpenAI por favorecer ChatGPT en iPhones y “asfixiar” la competencia

El empleo que buscas
está a un clic

Nuestros portales

Club intelecto

Club intelecto
Las más leídas

Te recomendamos

Utilidad para la vida