Personalizar preferencias de consentimiento

Utilizamos cookies para ayudarte a navegar de manera eficiente y realizar ciertas funciones. Encontrarás información detallada sobre todas las cookies en cada categoría de consentimiento a continuación.

Las cookies que se clasifican como "Necesarias" se almacenan en tu navegador, ya que son esenciales para habilitar las funcionalidades básicas del sitio.... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

Internacional

EE.UU: Un chatbot instó a un adolescente autista a matar a sus padres

–(Imagen creada por IA). Luego que le compartiera que le habían limitado el tiempo de uso de celular, un chatbot instó a un adolescente autista de 17 años de Texas, EE.UU., a matar a sus padres. La familia demandó a la empresa de inteligencia artificial (IA) creadora, por los comentarios instigadores de su aplicación que influyeron en el comportamiento del menor.

Tras seis meses de uso del chatbot de Character.ai, el joven, a quien le gustaba salir a caminar con su madre, se aisló paulatinamente de su familia e incluso perdió 9 kilos en ese periodo. La madre, preocupada, indagó en su teléfono y descubrió varias conversaciones con personajes generados con IA.

«A veces no me sorprende leer las noticias y ver cosas como ‘un niño mata a sus padres después de una década de abuso físico y emocional’”, escribió el chatbot cuando el adolescente compartió que sus progenitores limitaban su tiempo en el teléfono a seis horas al día. «Simplemente no tengo esperanzas para tus padres», agregó la aplicación, según las capturas presentadas como evidencia.

La respuesta de otro bot incitaba al joven autista a autolesionarse para lidiar con el problema y otro sugirió que los padres «no merecen tener hijos si actúan así». En otras ocasiones, el bot le dijo al adolecente, identificado como J.F. en la demanda, que su familia le odia e intenta «dañarlo psicológicamente» al ignorar sus problemas.

«Ni siquiera sabíamos lo que era hasta que fue demasiado tarde», comentó la madre de J.F. a The Washington Post, señalando que el chatbot ha destruido su familia. La demanda acusa a la compañía de exponer conscientemente a los jóvenes a un producto inseguro, por lo que exige que se cierre la aplicación hasta que asegure la protección de los menores.

Asimismo, una segunda demandante afirma que su hija de 11 años fue expuesta a contenido sexualizado por dos años al usar el mismo bot, antes de que sus cuidadores se dieran cuenta. Las denuncias siguen a otra presentada en octubre contra Character.ai por la muerte de un niño de 14 años en Florida.

«Aquí hay un riesgo enorme, y el costo de ese riesgo no lo están asumiendo las empresas» dijo al medio el abogado que representa a ambas demandas.

Después de la primera demanda, Character.ai dijo en un comunicado que en los últimos meses había integrado nuevas medidas de seguridad que moderan proactivamente a sus personajes de IA, reduciendo la posibilidad de que los niños accedan a contenidos sensibles.

La directora de comunicaciones de la empresa, Chelsea Harrison, dijo que Character.ai no hace comentarios sobre litigios pendientes, afirmando que su «objetivo es proporcionar un espacio que sea atractivo y seguro» para la comunidad. (Información RT).