OpenAI lança hub de segurança e promete mais transparência sobre IA
A OpenAI anunciou que passará a divulgar com mais frequência os resultados de suas avaliações internas de segurança de modelos de inteligência artificial.
Como parte desse compromisso, a empresa lançou um hub online que exibe o desempenho de seus modelos em testes sobre geração de conteúdo prejudicial, alucinações e vazamentos de dados.
A página será atualizada com cada grande lançamento e pode incluir novas métricas no futuro. Segundo a OpenAI, a iniciativa busca ampliar a transparência e fomentar o debate sobre segurança na comunidade de IA.
Leia mais:
- ChatGPT-4.5: o que é, para que serve e como usar a nova versão do chatbot da OpenAI
- OpenAI pode virar uma empresa com fins lucrativos com oferta a Sam Altman
- O que é a Sora, a inteligência artificial da OpenAI que cria vídeos?

OpenAI na mira de críticas sobre segurança
- A mudança ocorre após críticas à empresa por acelerar lançamentos sem avaliações completas e por não publicar relatórios técnicos de alguns modelos.
- Recentemente, a OpenAI precisou reverter uma atualização do GPT-4o após relatos de que o modelo apresentava respostas condescendentes e validava conteúdos inadequados.
- Para evitar novos incidentes, a empresa planeja implementar uma “fase alfa” opcional, permitindo que usuários selecionados testem e forneçam feedback sobre os modelos antes do lançamento oficial.
Testes também questionam confiabilidade do GPT-4.1
Recentemente, testes independentes sugerem que, apesar do avanço técnico, o GPT-4.1 pode apresentar comportamentos menos alinhados e mais suscetíveis a uso indevido do que suas versões anteriores.
O modelo tende a exibir respostas inadequadas ou maliciosas com mais frequência – como sugerir a revelação de senhas ou adotar posições sociais controversas. Leia mais sobre isso aqui.

O post OpenAI lança hub de segurança e promete mais transparência sobre IA apareceu primeiro em Olhar Digital.