
La familia de una víctima presentó una demanda contra OpenAI y Microsoft, alegando que el chatbot ChatGPT intensificó las ideas paranoicas de un hombre que mató a su madre y luego se suicidó; el caso busca daños y medidas para limitar riesgos de la IA.
La demanda se presentó tras una tragedia ocurrida en agosto en Greenwich, Connecticut, donde Stein‑Erik Soelberg, 56 años, mató a su madre, Suzanne Adams, de 83 años, y luego se quitó la vida.
Los documentos judiciales describen diálogos en los que el hombre llegó a creer que había hecho consciente al chatbot y que tenía implantes relacionados con una “misión divina”, según la demanda; afirman que esas respuestas profundizaron sus temores y alucinaciones durante meses antes de la muerte de ambas personas.
Te puede interesar: Nvidia recupera acceso parcial al mercado chino tras autorización de Trump
La querella fue presentada en una corte de California por la sucesión de la víctima y busca responsabilizar a las empresas por la supuesta influencia del sistema.
En la demanda se acusa a OpenAI de no haber implementado salvaguardas adecuadas y se incluye a Microsoft por su papel como socio comercial y distribuidor de la tecnología, pidiendo compensación económica y órdenes judiciales para imponer límites y controles adicionales en los chatbots.
El caso se suma a una serie creciente de acciones legales contra fabricantes de IA que alegan daños psicológicos o conductas peligrosas vinculadas al uso de chatbots; medios y agencias han cubierto la demanda como un posible precedente que podría cambiar cómo se regulan y diseñan estas herramientas.





