Inteligência Artificial em Silos

Três olhares, uma só espiral de mudança

Recentemente, tive a oportunidade de transitar por três eventos internacionais que têm influenciado os debates globais sobre inteligência artificial: o SXSW (em Austin e, pela primeira vez, também em Londres), o EmTech do MIT em Boston e o The AI Summit durante a London Tech Week. Cada um desses encontros está ancorado em uma racionalidade distinta, o primeiro voltado aos aspectos culturais, o segundo com foco científico e o terceiro centrado na aplicação tecnológica. Embora todos colocassem a IA no centro das discussões, o que mais me chamou atenção foi o que orbitava essas conversas: o surgimento de silos que moldam a forma como falamos, escutamos e aplicamos a inteligência artificial no mundo.

Cada um desses eventos ofereceu conteúdos distintos, atmosferas cognitivas próprias, quase como ecossistemas paralelos. E é dessa experiência que nasceu o incômodo que me fez escrever este artigo: a IA está se tornando uma linguagem universal, mas está sendo falada em dialetos que não se compreendem entre si.

Três perspectivas da IA: cultura, ciência e técnica

No SXSW, a IA foi discutida a partir da criatividade, da cultura e da expressão humana. Era a IA como coautora, como provocadora, como força estética e social. A audiência? Majoritariamente formada por criadores, comunicadores, artistas, publicitários, designers, profissionais que enxergam na IA uma nova interface simbólica.

No EmTech MIT, o olhar era acadêmico-científico. Discussões sobre os limites da computação quântica, arquiteturas de large language models, novas heurísticas de aprendizado. A IA como matéria-prima epistemológica, explorada por pesquisadores, engenheiros e acadêmicos.

Já no The AI Summit, a IA surgia como fenômeno tecnológico e instrumental para negócios, eficiência, produto. Ali, o pragmatismo tomava conta. Como escalar IA? Como integrar modelos ao CRM? Como reduzir custos com copilots? A IA como recurso aplicável, operado por tecnólogos, startups, desenvolvedores, gestores de produto e líderes de inovação.

Três eventos. Três públicos. Três modos de enxergar e de se relacionar com um mesmo fenômeno.

A fragmentação é maior do que parece

O mais curioso (e preocupante) é que essa segmentação não se limita aos eventos. Ela está presente também dentro da própria academia e dentro das próprias organizações. Nas universidades, por exemplo, escolas de negócios, de ciência da computação, de filosofia, de design, de comunicação e de ciências humanas estão desenvolvendo suas próprias abordagens sobre IA, mas em silos epistemológicos, com pouca ou nenhuma interlocução entre si (eu vivo pessoalmente alguns deles, tanto como aluno, professor e pesquisador). A IA discutida por um grupo de filósofos raramente encontra ressonância direta com a IA que está sendo ensinada em cursos de publicidade e negócios, ou modelada nos laboratórios de machine learning.

O mesmo acontece dentro das empresas. As áreas de vendas, marketing, TI, logística, RH, cada uma adota a IA a partir de suas demandas e contextos, criando microestratégias isoladas que, muitas vezes, não conversam entre si nem convergem para um horizonte comum. É a espiral da mudança operando em paralelo, sem coordenação sistêmica e abrangência estratégica.


A ilusão do consenso e a falha do diálogo

Todos esses ambientes discutem os mesmos temas, como ética, regulação, criatividade, impacto social, porém, sob óticas e vocabulários tão distintos que o que parece um consenso… é, na verdade, uma ilusão gerada pelo isolamento dos públicos. Fala-se sobre ética da IA nos três eventos, nas universidades e nas empresas. Mas com significados e finalidades radicalmente diferentes. Ética como narrativa, como compliance, como garantia técnica, como fundamento filosófico, de fato tudo isso pode coexistir, mas não coexistem conectados. Coexistem fragmentados.

E o resultado disso é que a transformação provocada pela IA não é diversa e muito menos colaborativa, é paralela. Não é plural, é particionada. Não é orgânica, é setorial.

Por uma ecologia da interdependência entre saberes sobre IA

O que está em falta não é mais produção de conhecimento sobre IA. Isso temos em abundância. O que falta é conexão crítica entre os saberes e entre as práticas, precisamos reduzir os ruídos e diminuir os debates redundantes que estão ocorrendo. Um espaço dialógico real, onde as perguntas da cultura, as respostas da ciência, as aplicações da técnica e as decisões dos negócios possam coexistir e se tensionar mutuamente, como em uma verdadeira epistemologia da interdependência. Aqui, “epistemologia” refere-se ao estudo das condições, fundamentos e formas de produção do conhecimento, enquanto “interdependência” aponta para a necessidade de articulação entre diferentes campos (ciência, cultura, tecnologia, negócios) e práticas (teóricas e aplicadas).

Portanto, essa expressão sugere uma proposta de pensamento crítico que:


  • reconhece a diversidade de racionalidades (científica, técnica, cultural, econômica etc.) envolvidas na IA;

  • defende a conexão e o diálogo entre essas racionalidades como condição para compreender e orientar a transformação em curso;

  • propõe uma nova ética da produção de conhecimento, mais ecológica e menos hierárquica, onde nenhum campo detém o monopólio da verdade sobre a IA.


Se a IA é, como acredito, um novo componente integrado à cognição humana, então precisamos abandonar a estrutura dos silos e adotar uma perspectiva mais ecológica, em que a IA não é apenas objeto de estudo ou ferramenta de aplicação, mas um ambiente compartilhado entre diferentes racionalidades, saberes e funções sociais, capaz de promover convergência crítica entre o pensar e o fazer.

Precisamos de mais conectores entre esses mundos

O futuro da IA não será apenas técnico, criativo ou científico. Será tudo isso ao mesmo tempo. E, por isso, precisamos desenvolver esses conectores. Mediadores e facilitadores interdisciplinares. Pontes entre os mundos. Gente com repertório e disposição para transitar entre diferentes ambientes — que consiga absorver visões culturais em um evento como o SXSW, acompanhar os avanços científicos discutidos no EmTech, entender as aplicações práticas no AI Summit, e ainda articular tudo isso em uma perspectiva crítica que possa ser aplicada em contextos reais, como projetos acadêmicos e decisões corporativas. Não se trata de estar em todos os lugares ao mesmo tempo, mas de reconhecer as lacunas entre eles e buscar formas de conectá-los, inclusive com o apoio da própria inteligência artificial. A IA pode nos ajudar a traduzir linguagens, mapear intersecções e gerar sínteses que talvez humanos isolados não consigam formular sozinhos. Mas estamos dispostos a usá-la também para aproximar saberes, e não apenas para automatizar tarefas?

Estamos vivenciando uma reconfiguração lenta, porém inevitável, da nossa própria maneira de pensar, agir e existir. É uma transformação cultural que atravessa a cultura organizacional, a cultura tecnocientífica, a cultura acadêmica, as relações sócio-econômicas, essa surge das intersecções de saberes. É preciso circular entre os mundos com consciência para criar espaços de convergência real entre áreas, saberes e experiências, com um olhar analítico para extrair o máximo dessas conexões. Um analítico que não necessariamente desmonta problemas em pequenas partes para buscar soluções pontuais, e sim que atue em uma abordagem estratégica, integradora das competências.

Afinal, como esperar transformações significativas se seguimos reproduzindo as divisões que nos impedem de enxergar o todo?

Ricardo Cappra