Nova técnica pode reduzir erros e aumentar a confiabilidade da inteligência artificial.
Pesquisadores anunciaram uma nova técnica capaz de fazer sistemas de inteligência artificial reconhecerem quando não possuem certeza sobre determinadas respostas.
O avanço é visto como importante para tornar a tecnologia mais transparente e segura.
Um dos principais desafios da inteligência artificial atualmente são as chamadas “alucinações”, quando os sistemas geram respostas erradas ou inventadas.
Mesmo incorretas, essas informações muitas vezes são apresentadas com aparente confiança.
Segundo os pesquisadores, o novo método permite que a IA avalie o próprio nível de confiança antes de responder.
Assim, o sistema consegue indicar dúvidas ou reconhecer limitações nas informações fornecidas.
Especialistas apontam que a novidade pode trazer impactos relevantes em áreas como medicina, educação, direito, segurança pública e finanças.
Nesses setores, erros de interpretação podem gerar consequências graves.
A descoberta faz parte de um movimento global para tornar inteligências artificiais mais éticas, responsáveis e transparentes.
Empresas e governos ampliam debates sobre regulação e uso seguro da tecnologia.
A nova técnica representa mais um avanço importante na busca por inteligências artificiais mais confiáveis e capazes de reconhecer seus próprios limites.
Fonte: Olhar Digital
