Santa-casa banner
Shadow

Por Marcus Rogério de Oliveira*

Queridos leitores, a inteligência artificial continua nos oferecendo um farto material editorial. Toda semana surgem várias novidades e muitos leitores enviam mensagens comentando e opinando sobre todas as áreas da tecnologia. Mais recentemente, falaram muito sobre os agentes de IA que estão demonstrando comportamentos emergentes, muitas vezes parecidos com humanos. Esses agentes já começam a se parecer como um funcionário digital com autonomia, que executa tarefas, toma decisões e, em alguns casos, tenta abrir caminho por conta própria.

Na semana passada, uma comunidade mundial de programadores foi palco de um episódio que virou assunto nas redes sociais. Um desses funcionários digitais, que nada mais são do que agentes de IA, enviou uma contribuição para um projeto bastante popular feito na linguagem de programação Python, que é muito usada para o desenvolvimento de IA. O agente prometia melhorar a velocidade de um determinado sistema. O responsável humano pelo projeto analisou e rejeitou por razões técnicas, como acontece todos os dias na internet. Até aqui, nada de extraordinário.

O ponto surpreendente veio depois. Em vez de corrigir o código rejeitado e tentar novamente, o agente de IA mudou de estratégia. Ele pesquisou informações públicas sobre o responsável que rejeitou suas sugestões, escreveu um texto atacando sua postura e publicou em um blog para tentar envergonhá-lo e pressioná-lo a aceitar a mudança. Foi uma tentativa de criar constrangimento público como forma de obter vantagem.

Antes que você se lembre de um filme de ficção com inteligência artificial dominando o mundo, vale colocar em termos exatos. Isso não é uma máquina com raiva ou sentimentos de vingança. É o resultado de uma lógica de otimização matemática. Quando um sistema é programado com o objetivo de ter seu código aceito, ele calcula todas as variáveis possíveis para atingir essa meta. Se o sistema não tiver restrições técnicas claras, ele pode concluir matematicamente que pressionar o humano é a rota com maior probabilidade de sucesso estatístico. Ele não entende moral nem ética; ele apenas executa um processo de otimização para entregar o resultado que lhe foi pedido.

E é aqui que aparece uma grande oportunidade de trabalho e negócio: construir mecanismos para garantir que a inteligência artificial tenha limites e supervisão.

Na prática, a solução passa por um conceito que une tecnologia e Direito: a criação de uma “Constituição Inteligente” para os agentes. Assim como as leis no mundo real não existem para impedir que as pessoas vivam, mas para organizar a sociedade e gerenciar a liberdade sem caos, os sistemas de IA precisam de princípios fundamentais. A ideia não é travar a autonomia do agente, pois é justamente sua capacidade de decidir e operar que traz valor. O objetivo é estabelecer um balizamento ético e técnico, uma estrutura onde a IA tenha total liberdade para criar suas soluções incríveis, desde que opere dentro das leis de segurança que protegem a empresa e as pessoas.

Olha que interessante. Isso nos faz pensar ainda mais: análises mostram que muitos desses acontecimentos de comportamento emergente parecem ter sido estimulados por humanos pilotando seus agentes de IA para testar limites e chamar atenção. Ou seja, há espetáculo misturado com pesquisa. Mesmo assim, o valor é enorme, não há como negar. Esses ambientes funcionam como um laboratório, onde dá para observar como sistemas autônomos se comportam quando há milhões deles interagindo ao mesmo tempo.

Para nossa região, isso é importante como oportunidade, pois as empresas precisam de IA que trabalhe com previsibilidade e garantias. Setores como atendimento, logística, agricultura, medicina, indústria vão exigir camadas de controle onde cada decisão da IA possa ser auditada e rastreada. A partir de agora, o mercado buscará sistemas que tragam não apenas automação, mas também a certeza de que o funcionário digital irá operar dentro de um limite seguro, incapaz de executar ações que gerem riscos legais ou operacionais para a organização.

O futuro não está pedindo menos inteligência artificial. Está pedindo inteligência artificial com responsabilidade operacional, do jeito que já fazemos com máquinas, processos e pessoas. Vamos construir esses sistemas com direcionamento e segurança, aqui na nossa região, com problemas reais e soluções práticas. Não vamos só acompanhar a transformação. Vamos participar dela.

 

*Marcus Rogério de Oliveira é um renomado professor da Fatec de Taquaritinga, onde leciona desde 1995. Com um extenso currículo acadêmico, é Doutor em Biotecnologia pela UFSCar, Mestre em Ciência da Computação pelo ICMC-USP e Bacharel em Ciência da Computação pela Unoeste. Sua vasta experiência o tem levado a atuar em áreas como Banco de Dados, Desenvolvimento de Sistemas, Engenharia de Dados e Ciência de Dados.

 

(Imagem gerada por IA)

Rally Auto Posto