Google Atualiza Políticas sobre Uso de IA Generativa
O Google atualizou seus termos para esclarecer que os clientes podem utilizar suas ferramentas de IA generativa para tomar “decisões automatizadas” em domínios considerados “de alto risco”, como saúde, desde que exista a supervisão de um humano.
Segundo a nova versão da Política de Uso Proibido da IA Generativa, publicada na última terça-feira, os clientes podem empregar a IA generativa do Google para decisões automatizadas que possam ter um “impacto material prejudicial nos direitos individuais”. Contudo, é necessário que um humano supervisione de alguma forma. Assim, os clientes estão autorizados a utilizar a IA para decidir sobre emprego, habitação, seguros, assistência social e outras áreas de “alto risco”.
Decisões Automatizadas em Contexto de IA
No universo da IA, decisões automatizadas referem-se àquelas tomadas por um sistema de IA com base em dados, tanto factuais quanto inferidos. Por exemplo, um sistema pode decidir a concessão de um empréstimo ou fazer a triagem de um candidato a emprego.
A versão anterior dos termos do Google sugeria uma proibição absoluta sobre a tomada de decisões automatizadas de alto risco envolvendo a IA generativa da empresa. No entanto, a Google afirmou a Visualizer que os clientes sempre puderam usar sua IA generativa para decisões automatizadas, mesmo em aplicações de alto risco, contanto que um humano estivesse supervisionando.
“O requisito de supervisão humana sempre esteve em nossa política, para todos os domínios de alto risco”, disse um porta-voz do Google em comunicado por email. “[W]e estamos recategorizando alguns itens [em nossos termos] e explicando alguns exemplos de forma mais explícita para ser mais claro para os usuários.”
Regras dos Rivais da Google
A competição no setor de IA é feroz, e principais rivais da Google, como OpenAI e Anthropic, possuem regras mais rigorosas quanto ao uso de suas tecnologias em decisões automatizadas de alto risco. O OpenAI, por exemplo, proíbe o uso de seus serviços para decisões automatizadas relacionadas a crédito, emprego, habitação, educação, avaliação social e seguros. Já a Anthropic permite que sua IA seja utilizada em áreas como direito, seguros e saúde, mas apenas sob a supervisão de um “profissional qualificado” e exige que os clientes informem que estão usando IA para esse fim.
Preocupações sobre viés nas Decisões Automatizadas
A utilização da IA para tomar decisões automatizadas que impactem indivíduos tem gerado preocupações entre reguladores, que apontam para o potencial da tecnologia em perpetuar discriminações. Estudos demonstram que a IA empregada para decisões como a aprovação de créditos e aplicações de hipoteca pode replicar discriminações históricas.
A organização sem fins lucrativos Human Rights Watch chamou a atenção para a necessidade de banir sistemas de “social scoring”, que ameaçam comprometer o acesso das pessoas ao apoio de Segurança Social, prejudicar a privacidade e criar perfis de forma prejudicial.
Regulamentação em Andamento
Na União Europeia, a Lei da IA impõe a maior supervisão sobre sistemas de IA considerados de alto risco, incluindo aqueles que tomam decisões sobre crédito e emprego individuais. Os provedores desses sistemas devem se registrar em um banco de dados, gerenciar qualidade e riscos, ter supervisores humanos e relatar incidentes às autoridades competentes, entre outras exigências.
No cenário dos EUA, o Colorado recentemente aprovou uma lei que exige que desenvolvedores de IA divulguem informações sobre sistemas de IA “de alto risco” e publiquem declarações resumindo as capacidades e limitações dos sistemas. Em Nova York, os empregadores não podem usar ferramentas automatizadas para triagem de candidatos a emprego, a menos que a ferramenta tenha sido submetida a uma auditoria de viés no último ano.