Pular para o conteúdo
CULTURA

Máquinas de Desaprendizagem

Rob Lucas, do portal New Left Review. Tradução de Davi de Carvalho, do Esquerda Online

Não há como negar as maravilhas tecnológicas que resultaram da aplicação de transformadores na aprendizagem de máquinas. Eles representam uma mudança significativa em uma linha de pesquisa técnica que passou a maior parte de sua história parecendo positivamente iludida, pelo menos para seus iniciados mais sóbrios. Na esquerda, o reflexo crítico de ver isso como mais uma virada do parafuso neoliberal, ou apontar para o trabalho e a extração de recursos que a sustentam, cai um pouco diante de uma máquina que, finalmente, pode interpretar instruções em linguagem natural de maneira bastante precisa e produzir textos e imagens fluentes em resposta. Não muito tempo atrás, tais coisas pareciam impossíveis. A resposta apropriada a essas maravilhas não é o descaso, mas o temor, e talvez seja aí que devemos começar, pois essa magia está concentrada esmagadoramente nas mãos de algumas pessoas muitas vezes idiossincráticas no ápice social de um poder mundial instável. Seria obviamente imprudente confiar a essas pessoas a inteligência reificada da humanidade em geral, mas é isso que está acontecendo.

Aqui no Reino Unido, gestores universitários viciados em tecnologia estão atualmente advogando para que os professores sobrecarregados se voltem para a inteligência artificial generativa na produção de materiais didáticos. Mais da metade dos universitários já está usando a mesma tecnologia para ajudá-los a escrever ensaios, e várias plataformas de IA estão sendo testadas para a automação da correção. Se levadas a sério, essas desenvolvimentos representariam uma remodelação do sistema educacional como um processo de treinamento para modelos de aprendizado de máquina de propriedade privada: alunos, professores, palestrantes todos convertidos em uma espécie de administrador ou técnico terceirizado, cuidando da aprendizagem de uma ‘inteligência’ encaixotada que não lhes pertence. Dado que não há uma maneira conhecida de evitar que Grandes Modelos de Linguagem ‘alucinem’ – tecendo mentiras e absurdos em suas respostas, de maneiras que podem ser difíceis de detectar, a menos que alguém já tenha feito o trabalho relevante – os mantenedores residuais de padrões intelectuais seriam reduzidos ao papel de fornecer feedback corretivo para o delírio maquínico.

Onde as pessoas não desempenham essa função, as alucinações se propagarão sem controle. Já a web – que outrora foi imaginada, com base no CERN (Organização Europeia para a Investigação Nuclear), como uma espécie de comunidade científica idealizada – está sendo inundada pelas tagarelices de sistemas estatísticos. Tal como os resíduos físicos são enviados para o Sul Global para eliminação, os efluentes digitais estão sendo despejados sobre os pobres do mundo: para além das linguagens com melhores recursos, as traduções automáticas de baixa qualidade e os conteúdos em inglês de baixa qualidade dominam agora a web. Isto, claro, corre o risco de envenenar um dos principais poços dos quais os modelos generativos de IA têm bebido até agora, levantando o espectro de um ciclo degenerativo análogo aos ciclos proteicos da doença de Creutzfeldt-Jakob – a aprendizagem automática transformando-se no seu oposto.

Os humanos, sem dúvida, serão chamados para corrigir essas tendências, filtrando, corrigindo e estruturando dados de treinamento para os próprios processos que estão deixando esse rastro de destruição. Mas o educador, é claro, também deve ser educado, e, com o mercado editorial sendo saturado até mesmo com lixo auto-gerado, a cultura na qual os futuros educadores aprenderão não pode ser considerada como garantida. Em uma passagem famosa, o jovem Marx argumentou que o processo de autotransformação envolvido na aprendizagem real implicava uma transformação radical nas circunstâncias da aprendizagem. Se a aprendizagem agora corre o risco de ser reduzida a uma verificação de sanidade nas respostas de uma máquina de outra pessoa, refinando relações de produção que são estruturalmente opostas ao aprendiz, o primeiro passo para a autoeducação terá que envolver uma recusa em participar deste lançamento tecnológico.

Embora a IA conexionista que está na base desses desenvolvimentos tenha raízes que remontam até mesmo ao computador eletrônico, sua ascensão é inextricável das dinâmicas de um mundo contemporâneo corroído por crises em série. Um sistema educacional que já ameaçava entrar em colapso fornece terreno fértil para o cultivo de uma tecnologia perigosa, seja impulsionada por desespero, ingenuidade ou cinismo por parte de atores individuais. A saúde, onde os riscos imediatos podem ser ainda maiores, é outro domínio que os entusiastas gostam de apresentar como propenso a uma revolução baseada em IA. Podemos perceber nesses desenvolvimentos um prenúncio de respostas futuras à emergência climática. Esqueçam os cenários apocalípticos padrão vendidos pelos profetas da Inteligência Artificial Geral; eles são uma distração do desastre que já está sobre nós.

O livro recente de Matteo Pasquinelli, ‘The Eye of the Master: A Social History of Artificial Intelligence‘ (O Olho do Mestre: Uma História Social da Inteligência Artificial, tradução livre), é provavelmente a tentativa mais sofisticada até agora de construir uma resposta crítico-teórica a esses desenvolvimentos. Seu título é um tanto impreciso: não há muita história social aqui – pelo menos não no sentido convencional. De fato, como foi o caso de ‘A People’s History of Computing in the United States‘ (Uma História Popular da Computação nos Estados Unidos, tradução livre) (2018) de Joy Lisi Rankin, seria difícil construir tal história para um domínio técnico que há muito tempo está em grande parte escondido em ambientes acadêmicos e de pesquisa rareados. O social entra aqui por meio de uma reinterpretação teórica da história capitalista centrada nas análises do processo de trabalho de Babbage e Marx, que identifica mesmo na mecanização e divisão do trabalho do século XIX uma espécie de alienação do intelecto humano. Isso, então, lança as bases para um relato da história inicial da IA conexionista. O ‘olho’ do título liga a automação do reconhecimento de padrões à história da supervisão do trabalho.

Se mal é uma história, o livro é estruturado em torno de algumas descobertas acadêmicas marcantes que merecem atenção séria. É sabido que os primeiros esforços de Babbage para automatizar o cálculo estavam intimamente ligados a uma perspectiva político-econômica sobre a divisão do trabalho. Uma perspectiva mais inovadora aqui vem do rastreamento de Pasquinelli da noção marxista de ‘intelecto geral’ ao socialista ricardiano William Thompson e seu livro de 1824, ‘An Inquiry into the Principles of the Distribution of Wealth‘. A teoria de Thompson sobre o trabalho destacava o conhecimento implicado mesmo em formas relativamente humildes de trabalho – um conhecimento que foi apropriado por máquinas e usado contra as pessoas de quem havia sido alienado. Isso preparou o terreno para especulações sobre as possíveis consequências econômicas dessa acumulação de tecnologia, como o famoso ‘fragmento sobre máquinas’ de Marx.

Mas a separação de uma suposta ‘aristocracia do trabalho’ dentro do movimento operário tornou qualquer ênfase nos aspectos mais mentais do trabalho arriscada para a coesão. À medida que o projeto de ‘O Capital’ amadureceu, Marx deixou de lado o intelecto geral em favor do trabalhador coletivo, diminuindo o conhecimento e o intelecto em favor de um foco na coordenação social. No processo, uma teoria inicial do papel do conhecimento e do intelecto na mecanização foi obscurecida, e, portanto, precisava ser reconstruída a partir da perspectiva da era do Modelo de Linguagem Grande. A implicação para nós aqui é que a produção capitalista sempre envolveu uma alienação do conhecimento; e a mecanização da inteligência sempre esteve embutida na divisão do trabalho.

Se Pasquinelli parasse por aí, seu livro seria uma manobra interessante no terreno da Marxologia e da história da economia política. Mas esse material fornece o pano de fundo teórico para uma exploração acadêmica das origens das abordagens conexionistas para aprendizado de máquinas, primeiro na neurociência e nas teorias de auto-organização de pensadores cibernéticos como Warren McCulloch, Walter Pitts e Ross Ashby que se formaram no meio da Segunda Guerra Mundial e imediatamente após a guerra, e depois no surgimento, no final dos anos 1950, do ‘perceptron’ de Frank Rosenblatt no Laboratório Aeronáutico de Cornell – o ancestral direto mais antigo dos modelos contemporâneos de aprendizado de máquinas. Entre os recursos intelectuais que alimentaram o desenvolvimento do perceptron estavam uma controvérsia entre os cibernéticos e os psicólogos da Gestalt sobre a questão da percepção ou reconhecimento de padrões; a teoria conexionista da mente de Hayek – que ele começou a desenvolver como assistente de laboratório do neuropatologista Constantin Monakow, e que paralelizava suas crenças econômicas; e métodos de vetorização que haviam surgido das estatísticas e psicometria, com suas profundas ligações históricas com o movimento eugenista. Essa conexão tem ressonâncias marcantes no contexto de preocupações amplamente divulgadas sobre vieses raciais e outros em IA contemporânea. 

A força incomum de Pasquinelli aqui reside na capacidade de elaborar detalhes dos desenvolvimentos técnicos e intelectuais no início da história da IA, combinada com a aspiração de construir uma teoria social mais ampla. Menos desenvolvida é sua tentativa de vincular o perceptron e tudo o que se seguiu a ele à divisão do trabalho, enfatizando a automação não da inteligência em geral, mas da percepção – ligando isso ao trabalho de supervisão da produção. Mas ele pode ainda ter um ponto no nível mais abstrato, ao tentar fundamentar a inteligência alienada que está atualmente abrindo caminho nos meios de comunicação digital, sistemas educacionais, saúde e assim por diante, em uma história mais profunda da expropriação maquínica de uma intelectualidade que estava anteriormente incorporada a processos de trabalho dos quais o trabalho mental era um aspecto inextricável.

A principal diferença com a onda atual, talvez, seja o status social e cultural dos objetos da automação. Onde antes era a mentalidade do trabalho manual que se via incorporada em novos dispositivos, em um contexto de estratificações onde a intelectualidade dessas esferas era negada, nos modelos de aprendizado de máquinas atuais é o discurso humano em si que é objetificado nas máquinas. Se a política das máquinas nunca foi neutra, o nível de generalidade que a mecanização está alcançando agora deveria estar soando alarmes em todos os lugares: essas coisas não podem ser confiavelmente entregues a um pequeno grupo de corporações e elites técnicas. Enquanto estiverem, essas ferramentas – por mais mágicas que possam parecer – serão nossas inimigas, e encontrar alternativas aos caminhos dominantes de desenvolvimento técnico será uma questão urgente.”

Publicado originalmente em Unlearning Machines
O artigo acima representa a opinião do autor e não necessariamente corresponde às opiniões do EOL. Somos um portal aberto às polêmicas e debates da esquerda socialista