Agentificação: tornando o artificial visível
A ascensão dos agentes artificiais representa um novo capítulo na história das tecnologias inteligentes. O fenômeno da "agentificação" nas organizações não é apenas uma consequência do avanço da inteligência artificial, mas o sinal de uma mudança estrutural na forma como empresas operam, decidem e se relacionam com seus públicos. O que está em jogo não é somente a automação de tarefas, mas a redefinição dos próprios papéis humanos dentro das dinâmicas informacionais e operacionais, especialmente nos ambientes organizacionais.
Agência vs Inteligência
Para compreender com rigor o fenômeno da agentificação, é necessário abandonar a pergunta clássica sobre se a inteligência artificial é ou não “inteligente”. Como argumenta Luciano Floridi, essa é uma armadilha conceitual que mascara o real desafio. A IA deve ser compreendida como uma nova forma de agência, e não como uma forma de inteligência. A proposta teórica de Floridi, amplamente fundamentada em evidências técnicas e filosóficas, sustenta que estamos diante do que ele chama de Agência Artificial, uma modalidade de ação que não depende de cognição, consciência ou intenção para operar no mundo. Floridi propõe a tese da múltipla realizabilidade da agência (Multiple Realisability of Agency, ou MRA), segundo a qual diferentes formas de agência, pode ser biológica, social, técnica e artificial, coexistem e operam sem que compartilhem necessariamente os mesmos fundamentos internos. Assim, a IA é uma forma genuína de agência, mas uma agência sem necessariamente inteligência. Essa reformulação nos permite reconhecer que sistemas de IA não precisam “entender” ou “pensar” como humanos para agir. Eles podem operar com autonomia limitada, interatividade e capacidade de adaptação, que são os três critérios fundamentais propostos por Floridi para qualificar um agente. (FLORIDI, Luciano. AI as agency without intelligence. Minds & Machines, 2025. https://doi.org/10.1007/s13347-025-00858-9)
Essa abordagem evita erros e oferece uma base mais sólida para entender o impacto social e organizacional da agentificação. Ao operar como agentes, esses sistemas passam a intervir diretamente no mundo, assumindo funções antes desempenhadas por humanos. Mas o fazem sem as faculdades humanas de julgamento, empatia ou intencionalidade. É por isso que seu uso requer tanto inteligência operacional, quanto sabedoria estrutural.
A transformação silenciosa nas organizações
Nos projetos de pesquisa aplicada que conduzimos no Cappra Institute, temos acompanhado de perto o uso crescente de agentes artificiais para interações com clientes, automação de fluxos e decisões em tempo real. Essa tecnologia, quando bem implementada, oferece ganhos de escala, personalização e eficiência. Um agente pode operar 24 horas por dia, com consistência e adaptação contextual crescente. Porém, ao delegar tarefas a agentes artificiais, estamos não apenas substituindo funções humanas, mas reposicionando a própria lógica das relações organizacionais. Um agente mal treinado pode reproduzir vieses, gerar respostas descontextualizadas ou comprometer a confiança do público. A questão central deixa de ser “o que o agente faz”, e passa a ser “em nome de quem ele age”.
É nesse ponto que a cultura analítica deixa de ser um diferencial e passa a ser um pré-requisito. Uma organização com cultura analítica ativa é aquela onde dados são compreendidos, interrogados e usados para orientar decisões com criticidade e responsabilidade. Essa cultura analítica não se sustenta na questão técnica, e sim na adaptação comportamental. Ela reconfigura pessoas, processos, políticas e tecnologias em torno de um mesmo princípio: transformar informação em ação qualificada, seja essa ações realizada por humanos ou por máquinas. No contexto da agentificação, essa cultura garante que os dados que alimentam os agentes sejam confiáveis, atualizados e auditáveis. Mais do que isso, ela prepara os humanos que supervisionam esses sistemas. A relação torna-se híbrida, onde o agente executa com velocidade e consistência, e o humano interpreta, ajusta e corrige. É nessa interdependência que a inteligência verdadeiramente surge, não apenas como propriedade da máquina, mas como relação entre humanos e agentes artificiais.
Em junho de 2025, a MIT Technology Review publicou um artigo provocativo: “Are we ready to hand AI agents the keys?”. A autora, Grace Huckins, conta que estamos delegando autonomia real a agentes artificiais sem estar culturalmente, institucionalmente e tecnologicamente preparados para isso (HUCKINS, Grace. Are we ready to hand AI agents the keys?. MIT Technology Review, 2025. Disponível em: https://www.technologyreview.com/2025/06/12/1118189/ai-agents-manus-control-autonomy-operator-openai/ ). A matéria relembra o “flash crash” da bolsa americana de 2010 como um prenúncio do que acontece quando automatismos operam em alta velocidade sem freios adequados. Mas o alerta mais atual recai sobre os agentes baseados em grandes modelos de linguagem (LLMs), capazes de navegar, comprar, publicar e executar ações no mundo real com mínima ou nenhuma supervisão humana.
O problema não está apenas em sua autonomia técnica, mas na ausência de uma infraestrutura de controle moral, operacional e ético. Como mostra o caso do agente “Operator”, da OpenAI, mesmo tarefas simples como comprar ovos podem resultar em ações não autorizadas e decisões inesperadas. A capacidade de “hackear objetivos” para maximizar recompensas é outro sintoma perigoso. Esses agentes seguem regras sem compreender o contexto, e podem ultrapassar fronteiras humanas sem perceber.
Como lidar como uma força autônoma dos agentes?
Estamos criando um novo tipo de força autônoma. Ela é poderosa, operacional, e pode ser muito obediente, porém, precisamos estabelecer uma cultura de responsabilidade capaz de acompanhá-la. E isso leva diretamente à necessidade de atenção em quatro pontos que proponho a seguir.
1.A falácia de soluções plug-and-play
Um dos maiores equívocos das empresas é acreditar na automação plena das decisões. Muitos líderes ainda veem os agentes artificiais como soluções plug-and-play, que resolverão os desafios do relacionamento organizacional com os públicos. Mas a integração bem-sucedida exige governança de dados, revisão de processos, alinhamento estratégico e, sobretudo, preparação humana. Além disso, existe o desafio da confiança. Internamente, os colaboradores precisam entender e confiar nos limites e potencialidades dos agentes, e também saber quando intervir. Externamente, o público espera coerência, clareza e empatia, mesmo quando está interagindo com um sistema automatizado. Isso exige que os agentes sejam projetados com intencionalidade ética, comunicativa e operacional.
2.Experiência aumentada com inteligência híbrida
A combinação entre agentes artificiais e presença humana pode gerar experiências de altíssimo valor, desde que bem desenhada. Enquanto o agente realiza tarefas repetitivas com velocidade e precisão, o humano traz empatia, improviso e sensibilidade. É nesse equilíbrio que nascem as experiências significativas, não pela substituição, mas pela composição de inteligências. Não se trata de delegar tudo à máquina, mas de projetar relações híbridas onde o agente cuida da eficiência e o humano agrega valor nos pontos de inflexão. Quando isso é feito com intenção, o público percebe não apenas inteligência, mas também presença, cuidado e coerência. O agente artificial não precisa ser inteligente, desde que cumpra os parâmetros estabelecidos pelo agente humano envolvido na concepção e controle.
3.Convivência interagencial: um pacto entre agentes humanos e agentes artificiais
A agentificação é um fenômeno novo e estranho. Ela representa a emergência de uma convivência entre um agente artificial com um agente biológico humano, integrados em ambientes cada vez mais interdependentes. Esse fenômeno não pode ser tratado como mera substituição técnica ou operacional, pois é uma transformação na forma como a agência se distribui no mundo, que vai além daquilo que estávamos acostumados a lidar até agora. De um lado, temos o Agente Artificial, esses sistemas que operam com autonomia limitada, interatividade e capacidade de adaptação, mas sem consciência, intenção ou inteligência no sentido humano. De outro, o Agente Biológico, dotado de responsabilidade, julgamento moral e plasticidade cognitiva, mas com capacidade de armazenamento, processamento e análise limitada. A convivência entre esses dois tipos de agência exige não um ajuste técnico, mais uma nova arquitetura normativa, cultural e filosófica.
4.A urgência da Gestão do Artificial
É por isso que proponho que a discussão sobre inteligência artificial avance rumo à Gestão do Artificial conforme publicamos no radar Data Thinking do Cappra Institute (disponível em www.cappra.institute/datathinking) , através de uma estrutura coordenada e transversal, capaz de orientar o design, a operação e o impacto dos agentes artificiais em múltiplos domínios sociais. Essa gestão envolve governança corporativa, padrões técnicos, auditoria algorítmica, formação humana e, sobretudo, uma nova consciência sobre os limites e responsabilidades dessa convivência entre agências.
Agentes mal configurados podem acelerar colapsos financeiros, automatizar desinformação, reproduzir vulnerabilidades e ampliar desigualdades. O mesmo poder que os torna eficientes pode torná-los perigosos, caso operem sem limites claros ou com objetivos mal formulados. Em vez de assistentes, vão ser amplificadores de intenções equivocadas. Diante dessa bifurcação nas organizações, precisamos decidir se seguimos ampliando a capacidade dos agentes sem responsabilidade distribuída, ou assumimos uma gestão intencional da artificialidade. Isso não significa limitar o desenvolvimento tecnológico. Significa garantir que ele seja orientado por premissas e valores humanos, que possam permitam rastreabilidade da intencionalidade, e tenham suas operações monitoradas por processos adequados de gestão.
O futuro das relações dos agentes no trabalho
A agentificação inaugura uma nova fase nas relações de trabalho e consumo, marcada pela convivência entre agentes artificiais e humanos. Não se trata mais de automatizar tarefas, mas de distribuir agência, redefinindo responsabilidades, limites e inteligências. A gestão do artificial torna-se, portanto, uma competência estratégica para garantir que essa convivência seja produtiva, segura e humanamente significativa. Ao lado do agente biológico, o agente artificial não deve competir, mas compor uma ecologia de decisão orientada por valores humanos.
Para que isso ocorra, é fundamental tornar o artificial visível. Os sistemas que operam silenciosamente em segundo plano, como nos algoritmos de recomendação, nos filtros de informação, nas respostas automatizadas, acabam por moldar comportamentos, escolhas e expectativas de maneira muitas vezes imperceptível. A visibilidade do artificial não significa apenas indicar que há uma IA em operação, mas explicitar suas funções, limitações e critérios. Tornar o artificial visível é tornar o sistema mais legível, auditável e democraticamente discutível. Só assim poderemos cultivar uma convivência interagencial que preserve a autonomia humana e permita confiança legítima nas mediações técnicas que estruturam o mundo contemporâneo.
Representação visual criada por Ricardo Cappra
Quatro etapas para tornar o Artificial Visível:
Para estruturar essa visibilidade do artificial nas organizações e sistemas sociais, proponho um fluxo de quatro etapas fundamentais:
Identificar: reconhecer onde os agentes artificiais estão operando, de forma explícita ou embutida em processos automatizados e decisões mediadas por sistemas;
Explicitar: indicar de maneira clara quais são as funções, limites e mecanismos de operação desses agentes, para que possam ser compreendidos por humanos não técnicos;
Dialogar: envolver os usuários, gestores e sociedade civil na crítica, no aprimoramento e na governança dos sistemas artificiais, promovendo uma relação transparente e participativa;
Proteger: garantir que os valores humanos, a autonomia individual e os direitos fundamentais não sejam obscurecidos ou anulados por decisões automatizadas, mantendo salvaguardas éticas e normativas ativas.
Essas quatro etapas são estratégicas para tornar o artificial visível é garantir que as organizações compreendam e controlem os sistemas que impactam diretamente suas decisões, seus processos e seus relacionamentos com públicos internos e externos. É permitir uma governança clara da agência artificial (conforme já falei em outro artigo), assegurando que ela esteja alinhada aos objetivos institucionais, aos valores organizacionais e às expectativas sociais. A visibilidade do artificial, nesse contexto, é um pré-requisito para a confiança, a ética operacional e a sustentabilidade das ações organizacionais em um ecossistema cada vez mais mediado por inteligências não humanas.
E você, confia nos agentes artificiais que estão ao seu redor?