OpenAI Anuncia Nova Geração de Modelos de Raciocínio AI
Na sexta-feira, a OpenAI anunciou uma nova família de modelos de raciocínio AI, chamada o3, que promete ser mais avançada do que os modelos o1 ou qualquer outro já lançado. De acordo com a startup, essas melhorias surgiram do aumento no poder de computação utilizado nos testes, algo que já discutimos no mês passado.
Além disso, a OpenAI afirmou ter implementado um novo paradigma de segurança para treinar esses modelos da série o. O foco é manter os modelos alinhados com os valores de seus desenvolvedores humanos.
Alinhamento Deliberativo: A Nova Abordagem da OpenAI
Na nova pesquisa divulgada, a OpenAI apresentou o conceito de alinhamento deliberativo. Essa estratégia visa garantir que os modelos de raciocínio AI, como o o1 e o o3, considerem a política de segurança da OpenAI durante a inferência, que ocorre assim que um usuário pressiona “Enter” em seu prompt.
Os resultados mostraram que essa técnica melhorou remarkably o alinhamento do modelo o1 aos princípios de segurança da empresa. Isso significa que o o1 passou a responder a menos perguntas “inseguras”, aquelas consideradas problemáticas pela OpenAI, ao mesmo tempo em que se tornou mais eficaz em responder perguntas inócuas.
Aumento de Relevância na Segurança da AI
Com o crescimento da popularidade e do poder dos modelos AI, as pesquisas sobre segurança na inteligência artificial parecem estar cada vez mais em pauta. Contudo, esse tema é também motivo de controvérsia. Personalidades como David Sacks, Elon Musk e Marc Andreessen afirmam que algumas medidas de segurança na AI podem ser vistas como “censura”, revelando a natureza subjetiva dessas decisões.
Como Funciona o O1 e o O3?
Em termos simples, os modelos o1 e o3 funcionam da seguinte maneira: após o usuário entrar com um prompt no ChatGPT, esses modelos levam de 5 segundos a alguns minutos para formularem novas perguntas a si mesmos. Essa abordagem, chamada de cadeia de pensamento, permite que o modelo analise um problema em etapas menores e, a partir disso, ofereça uma resposta.
A inovação principal do alinhamento deliberativo é que os modelos o1 e o3 foram treinados para se relembrar da política de segurança da OpenAI durante essa fase de reflexão. Os pesquisadores afirmam que isso tornou os modelos muito mais alinhados às diretrizes da empresa, embora tenha trazido alguns desafios em termos de latência.
Desafios na Segurança da AI
A segurança da AI pode ter muitas definições, mas, neste contexto, a OpenAI está tentando moderar as respostas de seus modelos diante de prompts considerados inseguros. Isso inclui questões sensíveis, como fabricação de explosivos ou atividades criminosas, que alguns modelos podem responder sem hesitação, algo que a OpenAI quer evitar.
Entretanto, alinhar os modelos AI não é uma tarefa fácil. Existe uma infinidade de maneiras de se perguntar algo a um modelo, e a OpenAI precisa considerar todas essas variações para não deixar brechas que possam ser exploradas.
Resultados Promissores
Os resultados mostram que o alinhamento deliberativo melhorou a capacidade do o1 e o3 de responder adequadamente a perguntas seguras, enquanto rejeitavam as inseguras. No benchmark chamado Pareto, que mede a resistência de um modelo contra falhas comuns, o o1-preview superou modelos como o GPT-4o e Claude 3.5 Sonnet.
Conforme a OpenAI explicou, o alinhamento deliberativo é uma abordagem inovadora que ensina o modelo sobre suas diretrizes de segurança e permite que ele delibere sobre elas no momento da inferência, resultando em respostas mais seguras e contextualmente apropriadas.
Alinhamento com Dados Sintéticos
Embora o alinhamento deliberativo ocorra na fase de inferência, ele também envolveu novos métodos durante a fase de pós-treinamento. A OpenAI desenvolveu esses métodos sem usar respostas escritas por humanos, optando por utilizar dados sintéticos, gerados por outro modelo de AI, para ajudar com o treinamento.
Isso significa que o OpenAI utilizou exemplos de respostas em cadeia que referenciavam diferentes partes de sua política de segurança, gerando um aprendizado mais eficiente e com precisão elevada.
Embora o modelo o3 ainda não esteja disponível ao público, a OpenAI acredita que o alinhamento deliberativo pode ser uma maneira eficaz de garantir que os modelos de raciocínio AI respeitem valores humanos, especialmente à medida que eles se tornam mais poderosos e autônomos.
Conclusão
No geral, a OpenAI parece estar dando passos importantes na direção certa. Ter modelos AI que realmente considerem diretrizes de segurança enquanto respondem a perguntas pode ser a chave para um futuro onde a inteligência artificial é utilizada de forma segura e responsável. E você, o que acha dessas novas abordagens da OpenAI?