Responsabilidade e supervisão humana: O uso da Inteligência Artificial exige mais inteligência humana
A ausência de capacitação, designadamente, técnica, ética e jurídica, pode gerar riscos que superam os ganhos de eficiência. Por isso, as organizações precisam investir em formação contínua, tanto de engenheiros e técnicos, quanto de gestores e juristas, de modo a garantir o uso responsável e seguro dessa tecnologia.
Muitos gestores ainda desconhecem que os seus colaboradores fazem uso, de forma rotineira, de ferramentas de Inteligência Artificial (IA) generativa, como o ChatGPT, Copilot ou Claude, para melhorar a produtividade e agilizar o fluxo de trabalho. O problema é que, na maioria das vezes, as lideranças não estão preparadas para lidar com as implicações éticas, legais e reputacionais que decorrem do uso desses sistemas.
Assim, quando um resultado gerado por IA chega ao público, a surpresa é quase sempre acompanhada de crise. Ora, o recente caso que envolve a Deloitte Austrália, filial da rede global Deloitte, é um exemplo paradigmático e, acima de tudo, um aviso ao mercado global.
A consultora teve de devolver 440 mil dólares australianos ao governo daquele país depois de admitir que utilizara IA generativa na elaboração de um relatório oficial que continha erros graves e informações inventadas. O documento, entregue em Julho, destinava-se a avaliar os sistemas de compliance e de tecnologia da informação da Assistência Social australiana, encarregada de automatizar penalidades aplicadas a trabalhadores que não cumprissem as suas obrigações.
À primeira vista, tratava-se de uma entrega técnica de rotina. Contudo, os especialistas identificaram incoerências e dados sem fonte rastreável, ou seja, citações não verificáveis, o que geralmente aponta para o uso indevido de IA sem supervisão humana. A Deloitte reconheceu o erro, mas já era tarde. O relatório apresentava as chamadas "alucinações", isto é, informações inventadas pelo modelo de IA para preencher lacunas. O caso expõe uma lição simples e poderosa: usar IA não é o problema, o problema é usá-la sem transparência, sem metodologia e sem supervisão humana.
Como jurista, sabemos que a responsabilidade é sempre humana. Portanto, quando um profissional decide recorrer à IA, deve informar o cliente de forma clara, explicando que a ferramenta será usada para apoiar, e não substituir, o trabalho humano. O cliente tem o direito de saber quando há IA envolvida na elaboração de um parecer, relatório ou análise, para que possa avaliar os riscos, qualidade e eventuais vieses algorítmicos. Essa transparência é, afinal, a base da segurança jurídica e da confiança nas relações profissionais.
Com efeito, o episódio da Deloitte mostra que a ausência de supervisão humana pode transformar uma ferramenta promissora num passivo reputacional. Em vez de eliminar responsabilidades, a IA amplia as responsabilidades corporativas, e é por isso que o tema da governança da IA se tornou central. As empresas comprometidas não se limitam à eficiência; criam estruturas de revisão humana, ética digital e responsabilização clara sobre quem valida o que a tecnologia produz.
Em Angola, embora ainda não exista uma Estratégia Nacional de Inteligência Artificial (ENIA) nem um quadro regulatório específico, já é possível perceber sinais de avanço. O Livro Branco das TIC (2023-2027), por exemplo, revela as ambições do país em aplicar IA na saúde, educação, agricultura e administração pública. E, mesmo sem um plano nacional consolidado, algumas instituições angolanas já usam IA de forma experimental e produtiva.
O que nos leva a fazer essa incursão é o que poucos dominam: se fizermos um mapeamento do uso de ferramentas de IA externas e sobretudo internas, veremos que muitas instituições em Angola já estão a tirar proveito desta tecnologia. E citaria apenas dois exemplos para não nos alongarmos.
O Banco Nacional de Angola (BNA) e a Assembleia Nacional. Esta última, inclusive, tem recorrido a ferramentas de transcrição baseadas em IA para agilizar o processo legislativo, um passo que julgamos importante para a modernização administrativa e a transformação digital do Estado. Mas, como o caso da Deloitte nos recorda, não basta usar IA. É preciso compreendê-la, supervisioná-la e assumir o que ela produz.
A ausência de capacitação, designadamente, técnica, ética e jurídica, pode gerar riscos que superam os ganhos de eficiência. Por isso, as organizações precisam investir em formação contínua, tanto de engenheiros e técnicos, quanto de gestores e juristas, de modo a garantir o uso responsável e seguro dessa tecnologia.
Ora, um documento que gosto sempre de citar é o Rome Call for AI Ethics (Apelo de Roma para uma Ética da IA), lançado em 2020 pela Pontifícia Academia para a Vida, em parceria com empresas como Microsoft e IBM. O texto propõe que o desenvolvimento tecnológico esteja sempre subordinado à dignidade humana e à promoção da justiça e inclusão social. Os seis princípios fundamentais, nomeadamente, transparência, inclusão, responsabilidade, imparcialidade, confiabilidade e segurança/privacidade, formam a espinha dorsal de qualquer governança ética da IA.
Deixo propositamente para o final o princípio da responsabilidade, que exige que deve haver sempre alguém que responda pelo que a IA faz. Foi justamente o que aconteceu à Deloitte Austrália, que respondeu pela falha, ou seja, pela falta de supervisão humana sobre o resultado automatizado.
O custo imediato de 440 mil dólares é pequeno para a filial da gigante global, porém o prejuízo reputacional e o impacto na confiança do mercado são muito maiores. Contudo, a lição está passada. Sem inteligência humana, toda a IA transforma-se em risco.
Embora se reconheça que a IA é relativamente nova para a maioria dos profissionais, e todos estamos a aprender a explorar o seu potencial e a reconhecer as suas limitações, as instituições que pretendem adoptá-la devem criar estruturas de governança, mecanismos de supervisão humana, processos de diligência e avaliação de risco e, sobretudo, transparência com o cliente sobre o papel que a tecnologia desempenha no serviço prestado. Pois não há dúvidas de que o uso da inteligência artificial exige mais inteligência humana!













