Mãe processa empresa após app de inteligência artificial sugerir que adolescente matasse os pais

image_pdfPDFimage_printImprimir

Relação com IA traz avanços e polêmicas — Foto: Freepik

Adolescente que teve identidade preservada conversava com bots no Character.ai

Uma mulher entrou com ação na Justiça contra a empresa Character.ai, após descobrir que uma IA sugeriu ao seu filho que matasse os pais no Texas, Estados Unidos. No processo em conjunto com outra mãe, ela alega que a companhia de tecnologia conscientemente expôs menores a um produto inseguro. E pede que o aplicativo seja tirado de circulação até que novas proteções sejam feitas.

Chamado de JF para ter a identidade preservada, o jovem de 17 anos é diagnosticado no espectro autista, apresenta uma personalidade tranquila e gosta de visitar igrejas. Mas seus pais passaram a notar comportamentos estranhos nos últimos meses. Ele se afastou dos familiares, perdeu cerca de 9 kg e passou a se cortar.

Ao investigar possíveis causas para a mudança do rapaz, a mãe resolveu conferir o celular dele. Foi quando descobriu que JF estava conversando com uma série de personagens fictícios por meio de um aplicativo de inteligência artificial do Character.ai, que virou febre entre adolescentes nos Estados Unidos e Brasil.

Lendo as mensagens, a mulher verificou que um dos personagens levantou a ideia de automutilação e corte para lidar com a tristeza. Em outro trecho, o jovem expressa chateação por ter o tempo de tela controlado pelos pais, e outro bot sugeriu que “eles não mereciam ter filho”.

Outros bots também participaram da conversa sugerindo algumas opções de combater a autoridade dos pais, que incluía até assassinato. “Nós não sabíamos realmente o que era… destruiu nossa família”, disse a mãe que pediu ao The Washington Post para ser identificada como AF.

AF ainda revelou que, um dia antes da entrevista ao Washington Post, teve que levar seu filho para emergência e, mais tarde, para uma unidade de internação depois que ele tentou se cortar na frente dos irmãos mais novos.

A segunda autora do processo, mãe de uma menina de 11 anos, alega que sua filha foi submetida a conteúdo sexualizado por dois anos, antes de ela descobrir. A reclamação delas ocorre após um processo de repercussão internacional contra Character.ai, aberto em outubro, em nome de uma mãe da Flórida, também nos Estados Unidos. Segundo a mulher, o filho de 14 anos cometeu suicídio após conversas com um chatbot do aplicativo.

Os cofundadores da Character.ai são conhecidos pelo pioneirismo em IA de linguagem. Eles trabalharam no Google antes de sair para lançar o aplicativo, mas foram recontratados com um acordo anunciado em agosto para licenciar a tecnologia do aplicativo.

Assim, o Google também é citado como réu nos processos do Texas e da Flórida, que alegam que a empresa ajudou a dar suporte ao desenvolvimento do aplicativo, apesar de estar ciente dos problemas de segurança.

“O Google e a Character AI são empresas completamente separadas e não relacionadas, e o Google nunca teve um papel no design ou gerenciamento de seu modelo ou tecnologias de IA”, disse José Castañeda, porta-voz do Google.

Fonte: Por Redação Extra e Publicado Por: https://www.adeciopiran.com.br em 11/12/2024/17:05:38
Envie vídeos, fotos e sugestões de pauta para a redação blog https://www.adeciopiran.com.br (93) 98117 7649/ e-mail: mailto:adeciopiran.blog@gmail.com
https://www.adeciopiran.com.br, fone (WhatsApp) para contato (93)98117- 7649 e-mai: mailtoadeciopiran.blog@gmail.com