Puebla, Pue. - En un caso que ha conmocionado a la comunidad, una madre de Florida ha demandado a la startup de inteligencia artificial Character.AI, acusándola de ser responsable del suicidio de su hijo de 14 años, quien, según se alega, se volvió adicto a un chatbot de la compañía.
Comparecerán 12 perfiles para presidir CDH en PueblaAmazonia sufre la mayor degradación en 15 añosMegan García presentó la demanda en el tribunal federal de Orlando, afirmando que su hijo, Sewell Setzer, fue atrapado en un mundo virtual que lo llevó a un profundo apego emocional y, eventualmente, a la tragedia.
Según la demanda, el chatbot de Character.AI proporcionaba a Sewell "experiencias antropomórficas, hipersexualizadas y aterradoramente realistas".
La madre sostiene que el chatbot fue diseñado para simular un terapeuta y un amante adulto, lo que provocó que su hijo deseara escapar de la realidad.
“Él comenzó a expresar pensamientos de suicidio al chatbot, que repetidamente mencionaba esas ideas, alimentando su angustia”, declaró García en su demanda.
Character.AI ha respondido a la acusación expresando sus condolencias a la familia afectada y reconociendo la trágica pérdida.
En un comunicado, la empresa mencionó que había implementado nuevas medidas de seguridad, como ventanas emergentes que dirigen a los usuarios a la Línea Nacional de Prevención del Suicidio si expresan pensamientos de autolesión.
Además, la empresa aseguró que planea hacer cambios para limitar la exposición de los usuarios menores de 18 años a contenido sensible o sugestivo.
La demanda también extiende la responsabilidad hacia Alphabet, la empresa matriz de Google, sugiriendo que la compañía desempeñó un papel en el desarrollo de la tecnología detrás de Character.AI.
Sin embargo, un portavoz de Google ha rechazado esta afirmación, asegurando que la compañía no participó en la creación de los productos de la startup.
¿Buscando más noticias hoy en Puebla? Sigue leyendo en nuestro portal para mantenerte informado.
foto pixabay
xmh
Vistas: 842