Pereira, P. C.. Dobras #42 // Performatividade, correlacionismo e probabilização do futuro: a ordem das coisas na era do algoritmo.
https://medialabufrj.net/blog/2021/03/dobras-42-performatividade-correlacionismo-e-a-probabilizacao-do-futuro-a-ordem-das-coisas-na-era-do-algoritmo/
Rui Alexandre Grácio [2025]
Trata-se de um texto curto e sintético, mas muito bem construído. Apresenta uma caracterização das bases epistemológicas da racionalidade algorítmica assinalando três deslocações fundamentais: por um lado, o trânsito de um regime de representação para um regime de performatividade, a acentuação da ideia de correlação em detrimento da ideia de causalidade e uma recondução do possível ao preferível. Dito de outra maneira, não se trata de representar objetos mas de produzir efeitos e gerar realidades; não se trata estabelecer relações de causa-efeito, procurando-se perceber o que está na origem dos fenómenos, mas de estabelecer correlações entre dados numa escala quantitativa muito elevada (Big Data) que permitem assinalar ocorrências correlacionadas, tornando-as assim estatisticamente previsíveis (trata-se de “saber que” e não “saber de” ou "saber porquê”, numa pretensão de que “os dados falam por si”; assinalo que um saber não excluiu o outro, mas o primeiro tem uma dimensão acentuadamente pragmática, ligada a desempenhos e obtenção de resultados); não se trata de procurar e explorar possibilidades e hipóteses, mas de encaminhar o saber para um provável estatístico que, por conseguinte, desloca o centro de interesse do conhecer para o plano da previsão.
De notar (numa reflexão já desprendida ndo texto), que a passagem de uma valorização da causalidade para uma valorização da correlação dá azo, no nível do discurso popular, a lançar um clima de suspeita em permanência, o que mina a confiaça e a coesão social.
São estas ideias que o presente artigo explora e explicita.
Aqui ficam algumas passagens:
"Nele reflito sobre alguns aspectos do regime de saber dos algoritmos preditivos da Inteligência Artificial, tratando de pensá-los a partir de suas bases epistemológicas e de sua racionalidade."
"Ou seja, três aspectos desse regime de conhecimento ancorado na junção do Big Data com os algoritmos ditos inteligentes:
1. a prevalência da performatividade sobre a representação como modo de produção da verdade;
2. a prevalência do correlacionismo sobre a causalidade como modo de explicação da realidade;
3. a prevalência do provável sobre o possível como modo de relação com o futuro."
"Se o Big Data se transformou num oráculo para as indústrias do mercado, da ciência, da guerra ou da política, o algoritmo é o pequeno profeta capaz de revelar os signos da predição contidos nos massivos bancos de dados. Nesse cenário, a produção de predições por meio dos algoritmos da Inteligência Artificial se torna um modo de simultaneamente produzir e capturar o futuro por meio de automatismos tecnolinguísticos (BERARDI, 2019)."
"As questões que estou descrevendo se inscrevem em continuidades e rupturas históricas mais amplas — como os desdobramentos contemporâneos dos regimes da vigilância, do controle e do risco, a função da antecipação para as práticas securitárias contemporâneas e para o neoliberalismo, e a transformação entendimento de mundo que está em jogo com o possível ocaso da razão fundamentada no sujeito reflexivo moderno (C.f. BRUNO, 2019; ROUVROY e BERNS, op. cit.) e a delegação de decisões para máquinas."
"um algoritmo preditivo calcula a distribuição estatística de padrões num determinado banco de dados (conjunto de dados de treinamento) através da análise de correlações entre variáveis. A partir disso, produz um modelo estatístico capaz de gerar inferências sobre novos conjuntos de dados, calculando futuros prováveis."
“(…) a acurácia das predições importa menos do que os efeitos que essa governamentalidade é capaz de produzir."
"Noutros termos: todos os outputs são verdadeiros uma vez que do ponto de vista informacional modulam o aperfeiçoamento do sistema."
"A predominância hoje dos modelos indutivos de inteligência automatizada e o que se poderia chamar de crise dos modelos dedutivos tem como um de seus traços a predominância da correlação sobre a causalidade como modelo de entendimento dos fenômenos."
"Resumindo num mantra da análise de dados: correlação não implica causalidade. Porém, mais do que a prevalência da correlação sobre a causalidade, talvez seja a indiferença a esta última a marca desse regime de saber, uma vez que seu conhecimento não é mais necessário para monitorar e modificar os comportamentos dos sujeitos e fenômenos. Nesse sentido, não é uma coincidência que o modelo behaviorista de sujeito — que substitui uma ‘engenharia das almas’ por uma ‘engenharia do comportamento’ e reduz a experiência a comportamentos observáveis e mensuráveis — seja aquele que melhor convenha ao capitalismo de vigilância, como bem descreve Zuboff (2019)."
"Poderíamos dizer que esses sistemas sociotécnicos integram um projeto que visa governar os eventos, os riscos, o desconhecido, o acaso, a incerteza e, no limite, a própria vida não mais no campo do possível, mas no campo do provável."
"A governamentalidade algorítmica ancorada na probabilidade e na previsibilidade se relaciona não só à capacidade de inferir predições mas de (uma vez sabendo dessas predições) intervir antecipadamente para probabilizar determinadas atualizações no curso das ações e desprobabilizar outras, agindo principalmente sobre as “arquiteturas de decisão” (ZUBOFF, op. cit.). Transformar alguns futuros em prováveis e outros em improváveis é uma das ações mais eficazes do governo algorítmico."
Última atualização em 1 de maio de 2025