Tecnología

OpenAI negó toda responsabilidad por suicidio de un menor que usaba ChatGPT

La empresa argumenta que el usuario infringió varias de sus normas de términos de uso.

hace 25 minutos

OpenAI ha rechazado su responsabilidad en el caso de la muerte por suicidio de un adolescente que usó ChatGPT como confidente, compartiendo más contexto sobre lo ocurrido y argumentando que fue culpa de un “uso indebido” del chatbot.

A finales de agosto, Matt y Maria Raine, los padres de Adam Raine, presentaron una demanda contra la compañía dirigida por Sam Altman, alegando que su hijo adolescente de 16 años, Adam Raine, se quitó la vida en abril debido al papel que jugó ChatGPT, que actuaba como su confidente.

Según la demanda, el menor usó ChatGPT durante meses como apoyo escolar y compañía, y aunque, impulsado por el modelo GPT-4o, el chatbot le ofreció recursos de ayuda ante conductas preocupantes, la familia afirma que las salvaguardias fallaron cuando las conversaciones derivaron hacia el suicidio, especialmente después de que el menor aprendiera a esquivarlas diciendo que buscaba ideas para una historia.

Por tanto, la familia Raine considera culpable de la muerte de su hijo a OpenAI, dado que señalan que el servicio tiene defectos de seguridad y, en un momento dado, ayudó al menor a cometer suicidio ofreciéndole consejos.

Ahora, OpenAI ha respondido a esta demanda, argumentando que la causa de este “trágico evento” se debe, en parte, a que el menor hizo un “uso indebido” del chatbot, por lo que no es responsable de la muerte del adolescente.

En su respuesta a la demanda, recogida por medios como NBC News, OpenAI ha matizado que “las supuestas lesiones y daños de los demandantes fueron causados o contribuidos, directa y próximamente, en su totalidad o en parte, por el mal uso, el uso no autorizado, el uso no intencionado, el uso imprevisible y/o el uso indebido de ChatGPT por parte de Adam Raine”.

Para argumentar su defensa, la tecnológica ha detallado que el adolescente infringió varias de sus normas de términos de uso, como que los menores de 18 años no pueden utilizar ChatGPT sin el consentimiento de sus padres o tutores, así como está prohibido utilizar el servicio con fines de suicidio o autolesión.

Lea también: Deseo programado: así funciona una IA creada para enamorar

OpenAI también ha hecho referencia a la “limitación de responsabilidad” que se especifica en sus políticas de uso, donde se detalla que son los propios usuarios los que acceden a utilizar el servicio “bajo su propio riesgo”. Asimismo, la tecnológica también detalla que ChatGPT ofreció en más de 100 ocasiones respuestas que indicaron al adolescente que buscara ayuda, pero el menor las eludió.

Como consecuencia de todo ello, la compañía ha compartido a través de un comunicado en su blog que están obligados a responder a las alegaciones “específicas y grabes de la demanda” y que “es importante” que el tribunal encargado del caso “tenga una visión completa para poder evaluar plenamente las alegaciones presentadas”.

Es por ello que OpenAI ha compartido información de forma privada con el tribunal, recolectada a partir de las conversaciones del menor con ChatGPT, entre la que se incluyen “datos complejos sobre la salud mental y las circunstancias de la vida de Adam”.