Novo método desenvolvido por cientistas promete reduzir respostas falsas em sistemas de inteligência artificial
(Imagem: Canva)
A confiabilidade da inteligência artificial pode passar por uma transformação importante nos próximos anos. Pesquisadores da Coreia do Sul desenvolveram uma nova técnica capaz de fazer sistemas de IA reconhecerem quando não possuem conhecimento suficiente para responder uma pergunta.
O estudo foi conduzido por cientistas do Instituto Avançado de Ciência e Tecnologia da Coreia, conhecido como KAIST, e publicado na revista científica Nature Machine Intelligence. A proposta busca reduzir um dos principais problemas envolvendo inteligência artificial atualmente: a criação de respostas falsas apresentadas com aparente segurança.
Esse comportamento é chamado no setor de “alucinação”. Ele ocorre quando plataformas de inteligência artificial geram informações incorretas, mesmo sem terem aprendido corretamente sobre determinado assunto.
A pesquisa pode trazer impactos relevantes para áreas sensíveis, como medicina, diagnósticos clínicos, segurança pública e veículos autônomos, onde respostas erradas podem provocar consequências graves.
Novo treinamento reduz excesso de confiança da inteligência artificial
Segundo os pesquisadores, a chamada “superconfiança” da inteligência artificial está relacionada às etapas iniciais do treinamento das redes neurais. Pequenos erros cometidos no começo do aprendizado acabam sendo propagados durante todo o desenvolvimento do sistema.
Os cientistas observaram que, quando dados aleatórios eram adicionados logo nas primeiras fases do treinamento, os modelos respondiam com alto nível de confiança mesmo sem conhecimento real sobre os temas apresentados.
Para tentar corrigir esse problema, a equipe buscou inspiração no funcionamento do cérebro humano. O estudo aponta que seres humanos desenvolvem sinais neurais antes mesmo do nascimento e que bebês realizam movimentos aleatórios antes de aprender habilidades específicas.
Com base nessa lógica, os pesquisadores criaram um sistema de “aquecimento” para a inteligência artificial. Antes do aprendizado principal, a rede neural passa por uma breve etapa de treinamento com ruídos aleatórios.
De acordo com os cientistas, esse processo ajuda a IA a compreender inicialmente um estado semelhante ao reconhecimento de que “ainda não sabe” determinada informação.
Sistemas passam a reconhecer incertezas
Os resultados apresentados indicam melhora significativa na capacidade de a inteligência artificial diferenciar conteúdos realmente aprendidos daqueles que ainda desconhece.
Na prática, isso reduz respostas falsas emitidas com excesso de segurança. Os pesquisadores afirmam que os modelos treinados com o novo método passaram a admitir incertezas com mais eficiência.
Os autores explicaram que sistemas convencionais frequentemente apresentam respostas incorretas com alta confiança até mesmo para dados inéditos. Já os modelos submetidos ao novo treinamento demonstraram maior capacidade de reconhecer limitações de conhecimento.
O professor Se Bum Paik, um dos responsáveis pela pesquisa, afirmou que o comportamento aproxima a inteligência artificial do funcionamento humano.
Segundo ele, o estudo mostra que princípios inspirados no desenvolvimento cerebral podem tornar os sistemas mais conscientes sobre o próprio nível de conhecimento.
Crescimento da inteligência artificial aumenta preocupação global
O avanço acontece em meio ao crescimento acelerado da inteligência artificial em todo o mundo. Relatórios internacionais apontam aumento contínuo no uso de ferramentas de IA generativa em diferentes países.
A adoção dessas plataformas cresceu entre profissionais e usuários comuns, impulsionada pela popularização de serviços como OpenAI ChatGPT, Google Gemini, Claude, Perplexity e Grok.
Países asiáticos também registraram expansão significativa no uso de inteligência artificial, principalmente após melhorias no suporte a idiomas locais, como coreano e japonês.
Especialistas avaliam que tornar os sistemas mais transparentes sobre suas limitações pode ser um passo importante para aumentar a segurança e a confiança no uso da tecnologia.