Big%20Data

Pereira, P. C. (2022). Racionalidade algorítmica e o governo do possível: Inteligência Artificial e o novo poder estatístico. Encontros Anuais da Associação Nacional de Pós-Graduação e Pesquisa em Ciências Sociais (Anpocs), n. 46, p. 1-24, 2022.

Recensão

Rui Alexandre Grácio [2025]

"Aplicado à conduta humana, esse modelo invade e expropria aquilo que antes pertencia à esfera da intimidade e da vida privada: nossos hábitos, personalidades, emoções e, sobretudo, nossas propensões, vulnerabilidades, potencialidades e supostos desejos (Cf. BRUNO, BENTES, FALTAY, 2019).” p.3

"Em virtude da centralidade da predição e da intervenção sobre a dimensão temporal para o saber-poder algorítmico, como argumento e desenvolvo ao longo do texto, entendo tais dispositivos enquanto tecnologias de governo do tempo cujas dimensões mais poderosas se relacionam ao modo como incidem e regulam o curso das ações e eventos possíveis.
Os fenômenos sociotécnicos que viemos descrevendo podem ser compreendidos na esteira de um projeto de digitalização e datificação da vida cuja fronteira essencial passa a ser aquela que divide o computável e o incomputável. Como pontua Mbembe, nesse regime “o que não é computável não existe” (2019, tradução minha). Ou seja, em tal contexto só adquire status ontológico (e, consequentemente, político) aquilo que pode ser digitalizado, processado e interpretado pelas tecnologias e protocolos computacionais. Condição para que a Inteligência Artificial opere simultaneamente como uma indústria extrativa e como instrumento de conhecimento, esse projeto traz implícito um impulso colonizador que pretende capturar o planeta numa forma computacionalmente legível (CRAWFORD, 2021). Segundo Hui, a própria fantasia de uma superinteligência artificial é expressão de uma “forma extrema de computacionalismo, de acordo com a qual o mundo é calculável e poderia ser esgotado através de operações matemáticas” (HUI, 2020, p. 178-9). A extensão quase indefinida do horizonte de cálculo sob as formas contemporâneas de extração de recursos no capitalismo tecnológico visa, em última instância, a conversão de intensidades em quantidades.” p. 4

"A conversão de intensidades em processos computacionalmente legíveis baseados em dados e a centralidade dos algoritmos na produção de conhecimento e na tomada de decisões nesse contexto traz subjacente um modelo específico de racionalidade atada a problemas também específicos.” p. 4

“(…) a racionalidade algorítmica abarca, portanto, simultaneamente, um modo específico de ordenar, classificar, interpretar e capturar a realidade, e um modo específico de agir sobre esta visando intervir sobre comportamentos, ações, eventos e fenômenos. (…) modelo de racionalidade ‘algoritmocêntrico’(…)” p. 5

"Por esta razão, proponho que os algoritmos preditivos são tecnologias de governo do tempo que operam uma modulação algorítmica do possível que visa reduzir a agência do acaso através de uma probabilização da realidade e tornar o curso das ações e as condutas dos sujeitos mais previsíveis.” p. 7

"Uma das grandes finalidades da racionalidade que orienta o saber-poder algorítmico é introduzir uma gestão calculada da incerteza nos modos de conhecer e modular o curso das ações e comportamentos futuros. (…) Quais as implicações (epistemológicas, éticas, políticas e éticas) da redução do possível aos limites do provável?” p. 9

"A característica que viemos descrevendo manifesta, como vários autores vêm ressaltando (Cf. AMOORE, 2019; CARDON, COINTET e MAZIERES, op. cit.; PASQUINELLI, 2017; PARISI, 2017), que os algoritmos aprendizes operam através de uma lógica indutiva e não de uma lógica dedutiva de raciocínio.” p. 11

“(…) a racionalidade algorítmica se baseia numa normatividade estatística que visa probabilizar a totalidade da realidade, esquadrinhando-a em termos puramente numéricos traçando um mapa de suas tendências, propensões, inclinações e potencialidades sobre as quais visa intervir.” p. 12

“A racionalidade ou governamentalidade algorítmica é correlata de uma governamentalidade estatística.
Diante do excesso de indeterminação que cerca tradicionalmente o campo de ação possível dos sujeitos no tempo (BERGSON, 2011), sobretudo em contextos sócioculturais de crescente incerteza e intensos fluxos informacionais, a racionalidade algorítmica instaura uma probabilização do futuro que visa reduzir a potência e virtualidade deste ao provável e ao previsível. Nesse regime, simultaneamente epistemológico, normativo, temporal e de poder, “se captura o possível, reduzindo-o à mera probabilidade” (BERARDI, 2019b, p. 29). Assim, uma das principais ações que o governo algorítmico estabelece é uma modulação do campo do possível através das ‘malhas’ do provável. Berardi (ibid.), recuperando um termo do artista Warren Neidich, chama esse dispositivo de statisticon, um redutor dos acontecimentos futuros à probabilidade e à previsibilidade. Espécie de cruzamento entre a ‘máquina técnica’ e a ‘máquina social’, o statisticon, materializado em técnicas de personalização algorítmica e seus ‘filtros-bolha’, por exemplo, funciona por meio de automatismos tecno-informáticos que capturam os fluxos de atividade social sob a forma de dados visando adaptar as articulações da máquina global às expectativas do organismo social e, numa via simétrica, adaptar as expectativas do organismo social à máquina global.” p. 13

"Uma questão fundamental acerca do modo como o provável é gerido nesse modelo de racionalidade diz respeito ao fato de que, apesar de se tratar de um cálculo de probabilidades, projeta-se sobre ele efeitos de certeza. A crença de que ‘é provável que o futuro seja similar ao passado’, ‘é provável que os padrões se repitam’ em si mesma não tem nada de radicalmente novo, como o demonstram a história da astronomia, da agricultura ou da estatística populacional, por exemplo. O que parece configurar uma novidade é que essa crença, tomada enquanto certeza, passe a estruturar um modelo de tomada de decisão automatizado em contextos de grande complexidade que incide muitas vezes de modo irreversível no curso dos eventos, sobretudo quando envolvem predição de risco, uma vez que a ideia é que não se ‘pague para ver’ se as predições são de fato acuradas, mas que elas disparem ações antecipatórias que evitem que aquele futuro previsto ocorra. Por isso, o fato de muitas das predições feitas por essa ‘maquinaria adivinhatória’ serem falhas ou espúrias, para utilizar um termo da estatística, não significa que, em alguma medida, não desencadeiem efeitos que ajudam a produzir as condições de sua própria verdade.
A ação sobre o possível que a racionalidade algorítmica engendra também se manifesta nas formas de subjetivação a ela associadas. (…) Assim, os modelos supra-individuais (padrões, cálculos de risco, perfis) produzidos por meio de fragmentos infra-individuais (dados) e que conformam o modelo de subjetivação do dividual “não se referem a um indivíduo considerado em sua totalidade presente em sua individualidade atual, (...), mas mais precisamente a suas potencialidades, ao que pode ser em função do que é e o que pode ser em função do que já está fazendo” (ibid., p. 454, tradução minha, destaque meu). Enquanto modo de subjetivação, o dividual apontaria assim para um “duplo projetado, não atual, possível” (ibid., tradução minha).” pp. 13-14

"A ideia de fundo que guia o desenvolvimento da estatística é de que o acaso pode ser domesticado e a incerteza pode ser medida (HACKING, 2006; BERNSTEIN, 2011).” p. 15

"No entanto, não é somente uma mudança no modelo de gestão dos dados que está em jogo, mas da própria base epistemológica das ferramentas utilizadas. Outra ruptura entre o ‘velho’ e o ‘novo’ poder estatístico diz respeito ao fato de que o modelo algorítmico de análise da realidade dispensa médias, categorias, regras ou hipóteses prévias, uma vez que, como vimos, opera por meio de uma lógica indutiva de raciocínio.” p. 17

"Os apontamentos de Bruno sobre o confisco do comum e o sequestro do futuro pelas/nas plataformas digitais reiteram a hipótese que viemos desenvolvendo ao longo do presente texto: que as dimensões mais poderosas da racionalidade algorítmica e do modelo de conhecimento que lhe orienta — modelo este, como vimos, ancorado na predição, na lógica indutiva e na probabilização da realidade — concernem ao modo como regula e estrutura o campo do possível e que, portanto, os algoritmos ditos inteligentes podem ser considerados tecnologias de governo do tempo. (…) Ou seja, o que essas tecnologias de governo do tempo capturam são mesmo as potências de criação, variação e abertura que conferem virtualidade a isso que usualmente chamamos futuro; essa reserva de devir da qual os processos de individuação se alimentam (SIMONDON, 2009) e que modula o que somos e, sobretudo, o que podemos vir a ser. Uma vez que não se trata somente de novas formas de conhecer o sujeito e o mundo, mas de como se atualizam e se produzem no tempo, refletir a fundo sobre as implicações da agência algorítmica para a constituição do campo do possível e defender, como sugere Zuboff, um “direito ao tempo futuro” (2021, p. 376), o que depende da preservação de zonas de incerteza e indeterminação nos fluxos da existência, parecem se tornar tarefas urgentes para uma tecnopolítica da era do algoritmo.” pp. 19-20

logos%20cllc

Última atualização em 1 de maio de 2025