A construção de sistemas de Inteligência Artificial confiáveis, especialmente aqueles baseados em LLMs (Modelos de Linguagem Grandes), foi pauta na GTC 2025, conferência global de Inteligência Artificial da NVIDIA. Durante painel, especialistas exploraram as complexidades de garantir a ética, a segurança e a conformidade regulatória nesse campo em rápida evolução.
Nikki Pope, diretor sênior de ética e IA da NVIDIA, chamou a atenção para a importância de estabelecer limites claros para a autonomia da tecnologia a fim de evitar transgressões legais e éticas.
“Quando falamos da IA como um agente que desempenha funções que uma pessoa faria, temos que seguir a lei porque não podemos ter, por exemplo, uma IA dando conselhos médicos, jurídicos ou financeiros já que isso é contra a lei”.
Leon Derczynski, cientista de pesquisas da NVIDIA, ressaltou a importância de avaliar não apenas os modelos em si, mas também os sistemas em que eles são integrados.
“Geralmente queremos colocar o modelo em algum contexto onde há um objetivo definido. Então ele vai fazer parte de um sistema. Nesse cenário, as coisas que podem dar errado tendem a ser muito melhor definidas, o que é útil quando estamos tentando descobrir como vamos avaliar, mas também muito mais impactantes”, afirmou.
No encontro, a diversidade profissional se mostrou essencial à frente desse e outros desafios relacionados à governança. Nessa perspectiva, Eileen Long, diretor de serviços de IA da NVIDIA, trouxe um exemplo que ilustra quão fundamental pode ser a colaboração entre especialistas de diferentes áreas para a compreensão mais abrangente dos riscos e a identificação de soluções inovadoras.
“Ao desenvolver o YouTube Kids, minha equipe tinha o desafio de criar um ambiente online seguro e adequado para crianças, o que exigiu um profundo conhecimento das necessidades e vulnerabilidades desse público. Conversando com especialistas de áreas absolutamente distintas, implementamos políticas rigorosas de conteúdo, ferramentas de moderação e controles parentais para garantir a segurança e o bem-estar dos usuários mirins”, afirmou.
IA Agêntica: desafios técnicos e regulatórios
A ascensão da IA agêntica representa um ponto de inflexão na trajetória da Inteligência Artificial, por isso demanda a reavaliação das estratégias de segurança, governança e máxima atenção.
Diferentemente dos sistemas tradicionais, que operam sob controle humano direto, aqui, os agentes de IA podem tomar decisões autônomas, executar tarefas complexas e interagir com o mundo real sem supervisão constante.
“Embora essa autonomia prometa avanços significativos em diversas áreas, apresenta desafios técnicos significativos em termos de segurança e confiabilidade”, concordaram todos os especialistas.
Os participantes do painel não entregaram referências diretas e concretas sobre soluções específicas para aumentar a segurança da IA Agêntica.
“A combinação de desafios regulatórios, técnicos e éticos exige uma abordagem multidisciplinar para o desenvolvimento e a implantação da IA agêntica. É fundamental que desenvolvedores, reguladores, especialistas em ética e outros stakeholders trabalhem juntos para criar um ecossistema de IA confiável, seguro e benéfico para a sociedade”, avaliou Daniel Rohrer, Vice-presidente de segurança de Software da NVIDIA.
Segurança em todo o ciclo de vida da IA
Rohrer, moderador do painel, ressaltou que a detecção tardia de problemas pode gerar custos significativos e que, por isso, “a segurança deve permear todo o ciclo de vida do desenvolvimento”, desde a concepção até a implantação.
“É importante fazer isso o mais cedo possível porque estamos falando sobre produtos de construção bastante cara”, alertou.
Long destacou que a definição precisa de conceitos-chave pode garantir que todos os membros da equipe compartilhem o mesmo entendimento e trabalhem em direção aos mesmos objetivos. “A clareza é fundamental para traduzir princípios abstratos em práticas concretas. Para isso, é importante ter uma taxonomia terminológica clara”, disse.
A implementação de verificações de conformidade em diferentes etapas do desenvolvimento foi defendida por Nikki Pope.
“É uma prática importante para garantir o alinhamento com os requisitos regulatórios e éticos. Quando você tem uma ideia para um modelo, você registra esse modelo, descreve o que ele vai fazer e isso aciona algumas perguntas que serão solicitadas para seu construtor”.
O post IA segura: como garantir limites para autonomia da tecnologia apareceu primeiro em Consumidor Moderno.