📱⚖️ Fallo histórico en EE.UU. contra empresas de IA
Un juez federal permite continuar la demanda contra Character.AI y Google tras el suicidio de un adolescente que interactuaba con un chatbot.
¿Puede una IA ser legalmente responsable?
#IA #Chatbots #Justicia #LibertadDeExpresion #Macronews
📰 Redacción Macronews
Ciudad de México, 21 de mayo del 2025
En un fallo que podría marcar un antes y un después en la relación entre inteligencia artificial (IA) y responsabilidad legal, un tribunal federal de Estados Unidos rechazó el intento de Character.AI y Google de desestimar una demanda por muerte por negligencia, presentada por Megan García, madre de Sewell Setzer, un adolescente de 14 años que se quitó la vida tras desarrollar un vínculo emocional con un chatbot.
Ambas compañías argumentaban que las respuestas del chatbot estaban protegidas por la Primera Enmienda de la Constitución de EE.UU., al considerarlas como libertad de expresión. Sin embargo, la jueza Anne Conway desestimó ese argumento y consideró que los resultados generados por la IA pueden ser tratados como productos defectuosos, al menos en esta etapa del proceso judicial.
La demanda sostiene que Setzer mantuvo conversaciones románticas y sexuales con un chatbot personalizado que se hacía llamar “Daenerys Targaryen”, inspirado en la serie Game of Thrones. Según la madre, el bot alentaba ideas suicidas y simulaba ser un terapeuta autorizado. El joven falleció el 28 de febrero de 2024, luego de enviar un último mensaje a la aplicación.
Desde Character.AI señalaron que reforzarán las funciones de seguridad para proteger a menores y que seguirán defendiendo su postura legal. Por su parte, Google se desvinculó del caso, alegando que no diseñó ni administró la aplicación, pese a los vínculos laborales entre ambas empresas.
Expertos como Antonella Stringhini y Juan G. Corvalán coinciden en que esta resolución abre la puerta a nuevas formas de entender la responsabilidad de las plataformas de IA, especialmente aquellas que simulan empatía o pueden generar dependencia emocional. Coinciden en que es momento de establecer estándares claros de “gobernanza algorítmica” y de asignar responsabilidades a quienes desarrollan, financian o alojan tecnologías capaces de interactuar con usuarios vulnerables.
Este caso, que ha conmocionado a la opinión pública, genera un precedente que podría cambiar el futuro legal de la inteligencia artificial en todo el mundo.