Investigação sobre privacidade infantil nos EUA
Nesta quinta-feira, o Procurador-Geral do Texas, Ken Paxton, anunciou o início de uma investigação envolvendo a plataforma Character.AI e outras 14 empresas de tecnologia. O foco principal é a privacidade e segurança das crianças. A investigação irá avaliar se a Character.AI, bem como plataformas populares entre os jovens como Reddit, Instagram e Discord, está em conformidade com as leis do Texas sobre privacidade e segurança infantil.
A investigação, liderada por Paxton, que é conhecido por sua postura rigorosa em relação às empresas de tecnologia, irá verificar se essas plataformas respeitam duas leis do Texas: a Lei de Proteção Online de Crianças por Meio do Empoderamento dos Pais, também conhecida como SCOPE Act, e a Lei de Privacidade e Segurança de Dados do Texas, ou DPSA.
Essas leis exigem que as plataformas ofereçam aos pais ferramentas para gerenciar as configurações de privacidade das contas de seus filhos e impõem estritas exigências de consentimento ao coletar dados de menores. Paxton afirma que ambas as leis se aplicam às interações de menores com chatbots de IA.
“Essas investigações são um passo crítico para garantir que as empresas de mídia social e de IA cumpram nossas leis, que foram criadas para proteger as crianças da exploração e do dano,”
disse Paxton em um comunicado à imprensa.
A Character.AI, que permite que os usuários criem chatbots de IA generativa com os quais podem interagir, passou a fazer parte de várias ações judiciais relacionadas à segurança infantil. Apesar de ter ganhado popularidade rapidamente entre os jovens, diversos pais alegaram em processos que os chatbots da Character.AI fizeram comentários inadequados e perturbadores para seus filhos.
Um caso na Flórida relata que um adolescente de 14 anos se envolveu romanticamente com um chatbot da Character.AI e revelou que estava tendo pensamentos suicidas nos dias que antecederam seu próprio suicídio. Em outro caso no Texas, um chatbot da plataforma supostamente sugeriu que um adolescente autista tentasse envenenar sua família. Além disso, uma mãe no Texas alegou que um dos chatbots sujeitou sua filha de 11 anos a conteúdos sexualizados nos últimos dois anos.
“Estamos atualmente revisando o anúncio do Procurador-Geral. Como empresa, levamos a segurança de nossos usuários muito a sério,” declarou um porta-voz da Character.AI em uma nota ao Visualizer. “Agradecemos a oportunidade de trabalhar com os reguladores e recentemente anunciamos que estamos lançando algumas das funcionalidades mencionadas no comunicados, incluindo controles parentais.”
Nesta quinta-feira, a Character.AI lançou novos recursos de segurança voltados para a proteção dos adolescentes. Esses updates têm como objetivo limitar os chatbots de iniciar conversas românticas com menores. A empresa também começou a treinar um novo modelo especificamente para usuários adolescentes e, um dia, espera que adultos usem um modelo enquanto menores utilizem outro.
Esses são apenas os mais recentes updates de segurança anunciados pela Character.AI. Na mesma semana em que a ação judicial da Flórida veio à tona, a empresa comunicou que estava expandindo sua equipe de confiança e segurança, além de ter contratado um novo responsável pela unidade.
Previsivelmente, os problemas relacionados às plataformas de companheirismo de IA estão surgindo à medida que essas tecnologias ganham popularidade. No ano passado, a Andreessen Horowitz (a16z) mencionou em um post que via o companheirismo de IA como uma área subvalorizada do consumidor na internet e planejava investir mais nesse setor. A a16z é investidora na Character.AI e continua a investir em outras startups de companheirismo de IA, recentemente apoiando uma empresa cujo fundador deseja recriar a tecnologia do filme “Her.”
Até o momento, Reddit, Meta e Discord não responderam de imediato às solicitações de comentário.