Inteligência artificial e administração da crise

Controlo, marginalização, imobilização ou contra-insurgência – os sistemas de IA estão predestinados a gerir a crise global do capital. (IA e capital, parte 2)

04.04.2024, Tomasz Konicz

Um método particularmente eficaz do género ameaçado de morte do horror subversivo da ficção científica é exagerar ligeiramente a realidade capitalista tardia, transferindo apenas alguns momentos da sociedade para o domínio da ficção. Um clássico que utiliza este método é „Eles vivem“ de John Carpenter,1 em que a exploração, a opressão e a destruição do mundo pelo capitalismo são atribuídas a uma invasão alienígena clandestina, em resultado da qual os sinais emitidos pelas estações de televisão manipulam a percepção das pessoas. Óculos especiais bloqueiam o sinal e permitem reconhecer a verdade codificada e manipuladora por detrás dos objectos capitalistas do quotidiano, por exemplo, quando as notas de dólar são impressas com as palavras „Este é o teu Deus“. Não é preciso muito para trazer à vida no auditório do cinema através da ficção científica o horror da vida quotidiana sob o capital, a que as pessoas inevitavelmente se habituam.

O filme Advantageous,2 em que o protagonista é forçado por uma empresa de alta tecnologia a submeter-se a um transplante da consciência para um novo corpo como cobaia, sob a ameaça de desemprego e declínio social, adopta uma abordagem mais subtil mas não menos eficaz. Por um lado, a mania da optimização neoliberal e o discurso da adaptação são levados até ao seu limite tecnológico lógico, uma vez que o filme leva as exigências habituais de auto-optimização e de „reinvenção“ dos assalariados ao extremo da troca de corpos. Por outro lado, são chocantes as cenas em que uma infraestrutura totalmente automatizada, controlada por sistemas de IA, executa a morte social do protagonista principal, desligando cada vez mais os sistemas de infra-estruturas interligados e controlados digitalmente. As pessoas reais já quase não estão envolvidas nisto. Possibilidades reais, como um cartão de crédito a descoberto, são misturadas com momentos fictícios. Ao telefonar para o centro de emprego, não se sabe se o protagonista está a lidar com uma pessoa cínica ou com um assistente de IA.

Muitas das cenas desta „distopia silenciosa“ são particularmente perturbadoras porque muito do que Advantageous previu em 2015 já é viável actualmente. E é provável que o controlo social apoiado pela IA prevaleça, de uma forma ou de outra, a médio prazo. A administração de pessoas no capitalismo é problemática, especialmente em tempos de crise, uma vez que também coloca pressão psicológica na maioria dos assalariados que têm de a implementar. É um trabalho duro, que deixa a sua marca, ter de executar as restrições do sistema sobre o material humano. São raras as personagens capazes de o fazer sem cair em „comportamentos“ indesejáveis, como o sadismo ou a insubordinação. Automatizar tarefas pesadas e desgastantes – não é esta a grande promessa da racionalização capitalista?

Recursos desumanos

O „centro de emprego“ continua a ser dirigido por pessoas. Mas já são bastante comuns hoje em dia são os assistentes de IA encarregados da „avaliação inicial“ dos assalariados, a fim de verificar a sua empregabilidade aquando da sua contratação. Nos Estados Unidos são cada vez mais as empresas que utilizam chatbots especializados para analisar as candidaturas a emprego, estabelecer contactos e/ou realizar entrevistas iniciais.3 Sobretudo os empregos precários e mal pagos, que exigem baixas qualificações e têm um elevado volume de candidatos, estão a ser cada vez mais subcontratados aos „recursos desumanos“ totalmente automatizados dos sistemas de IA. Empresas de fast food como a McDonald’s ou a Wendy’s, cadeias de retalho ou armazéns estão a utilizar chatbots para filtrar candidaturas e realizar entrevistas de emprego com base em perguntas padronizadas („Pode trabalhar aos fins-de-semana?“, „Pode operar uma empilhadora?“). As vantagens são óbvias: para além das potenciais poupanças de custos nos Recursos Humanos (RH), onde as empresas tradicionalmente começam a cortar custos primeiro, as equipas de RH mais pequenas podem processar volumes muito maiores de candidaturas de forma eficaz.

Dois sistemas de IA desenvolvidos por start-ups do Arizona e da Califórnia, Olivia e Mya, estão actualmente a liderar o sector, mas, segundo a revista Forbes, ainda se debatem com problemas iniciais. Por vezes são atribuídas datas ou locais errados para as conversas de seguimento, ou os modelos linguísticos dos bots especializados não são nem de perto nem de longe tão avançados como os de projectos emblemáticos como o ChatGPT, o que pode levar a erros e mal-entendidos. Mas muito mais problemático é o simples facto de a IA não ser um ser humano com quem se possam discutir condições especiais. Os candidatos portadores de deficiência, que teriam de negociar modificações adequadas nos seus empregos, ficam de fora, tal como os assalariados com dificuldades de fala. O mesmo se aplica aos trabalhadores oriundos da imigração que não dominam plenamente a língua local.

E é aqui que começa a discriminação automatizada, que ocorre sob o manto da objectividade mecânica. As minorias socialmente desfavorecidas, que não se enquadram no esquema da inteligência artificial, são deixadas de fora das candidaturas a emprego. Em julho de 2023, a cidade de Nova Iorque emitiu mesmo um regulamento que exige que as empresas que utilizam sistemas de IA para a colocação de empregados verifiquem se existem „preconceitos raciais ou de género“. A aplicação deste regulamento não é totalmente clara, uma vez que os algoritmos e os critérios de selecção das máquinas de recrutamento permanecem fechados a sete chaves.

Há também um problema fundamental: tal como acontece com todos os sistemas de aprendizagem automática,4 os scanners de aplicações e os chatbots controlados por IA também têm de ser treinados para reconhecer padrões com base em enormes quantidades de dados. O software RecrutiBot, por exemplo, analisa 600 milhões de candidaturas em linha numa zona cinzenta do ponto de vista jurídico, a fim de aperfeiçoar o processo de selecção das empresas. Tudo funciona „um pouco como a Netflix“, explicou à Forbes o fundador desta start-up de IA. O software procura e sugere às empresas candidatos com as mesmas características que levaram anteriormente a contratações bem sucedidas. Estes sistemas de selecção são assim estruturalmente conservadores, uma vez que são treinados com base no material de dados fornecido. Consequentemente, não conseguem reagir a alterações na composição da força de trabalho – como o afluxo de trabalhadores migrantes. A Amazon, por exemplo, teve de eliminar o seu scanner de candidaturas a emprego em 2018, depois de se ter tornado claro que discriminava as mulheres. O software foi treinado utilizando uma montanha de dados em que as candidaturas de homens estavam desproporcionalmente representadas.

Atualmente, estes sistemas de IA são utilizados principalmente como ferramenta para a avaliação inicial dos candidatos a emprego, fazendo uma pré-selecção para as equipas de recursos humanos. No entanto, a ambição dos criadores deste tipo de software de selecção vai muito mais longe. Os chatbots mais recentes já incluem nas suas avaliações o tempo que os seus entrevistados precisam para responder, e também analisam a estrutura das frases, a correcção gramatical e a complexidade da linguagem do candidato. O software de recrutamento Sapia AI é mesmo capaz de fazer perguntas mais complexas aos candidatos e analisar as suas respostas de 50 a 150 palavras para verificar a sua adequação às vagas („lida bem com a mudança, o stress“, etc.).

Há aqui uma mudança de perspectiva. Já não é o ser humano que examina os bots de IA durante interacções caprichosas para avaliar o seu desempenho, como acontecia no início do boom da IA, quando os sistemas foram disponibilizados ao público em geral. Nas aplicações, as posições invertem-se: a IA do capital avalia o material humano utilizando padrões e algoritmos que são segredos de empresa para medir o seu desempenho. No entanto, os proprietários da start-up de IA Sense HQ, cujos chatbots fazem o trabalho de selecção para a Dell ou a Sony, sublinham que se trata apenas de apoiar as equipas humanas dos Recursos Humanos no recrutamento: „Não pensamos que a IA deva decidir sobre o recrutamento de forma independente. Isso seria perigoso. Achamos que ainda não é possível“. A linguagem é traiçoeira. Qualquer chatbot decente chegaria à conclusão de que a ênfase aqui deve ser colocada no „ainda“.

Certificados de direito à vida através da IA?

Poucas coisas são mais stressantes do que ter de decidir sobre a vida ou a morte no trabalho. No entanto, este é, de facto, o quotidiano dos funcionários do sector de saúde privatizado dos EUA, que têm de decidir o tipo e a duração do tratamento dos seus „clientes“ nas companhias de seguros de saúde. Os funcionários têm de minimizar os custos de tratamento dos seus pacientes segurados – mesmo à custa da sua saúde – a fim de manter os lucros da empresa tão elevados quanto possível. De uma perspectiva capitalista, parece assim tentador que esta atribuição de certificados de direito à vida no capitalismo tardio seja feita por sistemas de IA aparentemente objectivos.

É precisamente o que se diz já ter sido praticado, em certa medida, pelos „prestadores de cuidados de saúde“ nos Estados Unidos. No final de 2023, clientes intentaram uma acção judicial em massa contra a companhia de seguros UnitedHealthcare, depois de os seus pedidos de exames e de convalescença na sequência de intervenções terem sido maciçamente reduzidos por um sistema de IA. De acordo com a petição de reclamação e a investigação dos media, o algoritmo de IA foi autorizado a rever as recomendações dos médicos responsáveis pelo tratamento e a tomar as suas próprias decisões, de modo que os tratamentos dos doentes foram cancelados demasiado cedo.5

De acordo com a investigação, o programa, denominado nH Predict, terá utilizado uma base de dados de seis milhões de pacientes como fonte empírica para o habitual reconhecimento de padrões, a fim de tomar decisões erróneas draconianas com uma taxa de erro de 90%, todas elas a favor da UnitedHealthcare – a maior seguradora de saúde dos EUA. Os segurados que normalmente teriam um período de convalescença de 100 dias após uma hospitalização viram o seu financiamento retirado após apenas 14 dias pela IA de prognóstico da nH Predict. Desde 2019, as companhias de seguros privadas têm alegadamente utilizado esses programas de IA numa zona cinzenta do ponto de vista jurídico para negar aos doentes tratamentos necessários mas dispendiosos. No início de fevereiro de 2024, as autoridades norte-americanas competentes esclareceram que os programas de IA não podem ser utilizados para recusar benefícios.6 O poderoso lóbi da indústria de cuidados de saúde dos EUA tem, portanto, muito trabalho de persuasão a fazer em Washington.

Qual o senhorio que não sabe o que é guerra de nervos com os inquilinos faltosos que não querem sair de casa, apesar de não poderem pagar o último aumento da renda? Mas também aqui a IA pode facilitar a vida a todos os clientes suficientemente ricos para arrendar imóveis. Duas vertentes da inovação tecnológica estão a fundir-se para transformar o mercado do arrendamento imobiliário nos Estados Unidos: A criação de casas inteligentes, estreitamente ligadas em rede em termos de tecnologias da informação, e o seu controlo por assistentes de IA. Há uma atmosfera de corrida ao ouro, já que se espera que o mercado imobiliário de IA cresça para 1,3 biliões de dólares até 2029.7 Os sensores e sistemas de controlo que permitem monitorizar e controlar a partir do exterior funções como a temperatura ou o fornecimento de energia nas casas inteligentes estão a tornar-se compatíveis com os sistemas de IA capazes de as controlar.

A IA não funciona apenas como uma interface entre o inquilino e a casa, cujas funções – à semelhança das visões de Blade Runner8 – seriam controladas por voz, mas deve também antecipar comportamentos e monitorizar permanentemente os imóveis e o seu ambiente. Assim, não se trata apenas de reabastecer o frigorífico em tempo útil através de um serviço de entregas, ou de colocar a temperatura ambiente à temperatura ideal pouco antes da chegada do inquilino, mas também de uma monitorização permanente, por exemplo dos consumos de água e de eletricidade – e do controlo de acesso.9 As fechaduras biométricas tornam desnecessária a „mudança de fechaduras quando os inquilinos mudam“, rejubilam os fornecedores destes sistemas de IA para os senhorios, enquanto as câmaras de vigilância inteligentes que reagem a comportamentos suspeitos nas imediações das propriedades criariam „segurança e confiança“, especialmente em bairros com elevadas taxas de criminalidade, a fim de atrair „mais inquilinos“.

Mas o que é que espera os inquilinos faltosos que se atrasam nos seus pagamentos face a rendas horríveis? Os dados de acesso às fechaduras inteligentes são alterados, enquanto a voz suave da IA lhes indica o caminho para o centro de acolhimento de sem-abrigo mais próximo, para onde foram transportados os seus objectos pessoais. Em caso de explosões de raiva ou de actos de desespero, as câmaras inteligentes chamam a polícia. O inquilino em atraso pode ser previamente assediado por irritantes bots de IA para cobrar as facturas. Na Europa de Leste ainda existe uma indústria de cobradores de facturas por telefone. Trata-se de centros de atendimento invertidos que, na sua maioria, compram dívidas de consumidores e cujos empregados utilizam ameaças e persuasão para tentar cobrar o dinheiro, antes que os „músculos“ no terreno tenham de assumir esse trabalho. Mas este sector também está ameaçado de extinção. Em 2023, o fornecedor de telemóveis Orange já estava a fazer experiências com bots de IA que irritavam os clientes em falta com chamadas telefónicas com uma voz alegre para os encorajar a pagar em breve.

E, finalmente, a tendência para implementar a inteligência artificial não se inibe perante o aparelho de Estado. Até agora, as pessoas ainda não tiveram de lidar com bots de IA nas marcações dos centros de emprego, como previsto na distopia Advantageous acima referida. Mas na administração, onde os funcionários sobrecarregados são confrontados com uma enxurrada de aplicações e processos administrativos10 que mal podem ser geridos, a IA está a ser impulsionada em grande escala.11 Os gabinetes da República Federal também dispõem de quantidades gigantescas de dados que são perfeitos para treinar os sistemas de IA correspondentes. O princípio é o mesmo: com base no reconhecimento de padrões obtido através da digitalização do material de dados, a inteligência artificial toma decisões que têm uma probabilidade muito elevada de serem „correctas“, copiando e/ou modificando processos administrativos anteriores.

Subsídio de cidadania, abono de família, subsídio de desemprego, subsídio de desemprego de curta duração, subsídios e candidaturas – no futuro, o algoritmo de IA terá uma palavra a dizer nestas questões, uma vez que é a Agência Federal de Emprego, a maior entidade administrativa na Alemanha, que está a liderar a segunda vaga de digitalização „inteligente“. No entanto, os porta-vozes da agência disseram ao Spiegel-Online que foram tomadas todas as precauções de segurança aquando do desenvolvimento da estratégia interna de IA da agência. Foram desenvolvidos procedimentos para minimizar o risco de discriminação por parte dos algoritmos. A Agência Federal de Emprego tem agora um comité de ética de dados. Além disso, o ser humano tomará sempre „a decisão final“, continua a declaração. Na prática, é provável que os gestores de casos, sobrecarregados de trabalho, aprovem em massa as decisões preparadas pela IA.

No entanto, no caso da Agência Federal de Emprego, o problema no futuro será precisamente o de saber se as decisões tomadas pela IA são correctas. Um reflexo tipicamente alemão nos surtos de crise consiste em exercer imediatamente pressão sobre os grupos mais fracos da sociedade. Foi o que aconteceu com as leis laborais Hartz IV, que introduziram o trabalho forçado, privando de qualquer apoio os assalariados que não quisessem trabalhar e ameaçando-os, assim, com a fome. Os desempregados foram, de facto, literalmente mortos à fome na república Hartz IV da Alemanha.12 E isto parece estar também previsto para a crise económica de 2024.13 Em meados de março, o líder do grupo parlamentar da CDU, Mathias Middelberg, apelou a que fossem feitas „ofertas municipais de emprego“ aos beneficiários de prestações sociais. Se recusassem, os desempregados deveriam ver anulado todo o seu subsídio, segundo Middelberg, que pretendia poupar 30 mil milhões de euros com esta medida. E seria realmente razoável esperar que os gestores de casos da Agência Federal aplicassem directamente medidas tão draconianas? Nada seria mais fácil do que esconder-se atrás de um algoritmo que, com a bênção de um comité de ética de dados, retira os certificados de direito à vida às pessoas pobres.

Precog and the eyes in the sky

As câmaras estão por todo o lado, mas não estão a vigiar. A infraestrutura de vigilância perfeita já existe, mas, em certa medida, está inactiva, o seu potencial não está a ser utilizado. Os olhos mecânicos apenas gravam, produzem quantidades gigantescas de dados, mas não olham correctamente. Uma pessoa tem de olhar para o material de vídeo durante horas, analisá-lo – se não tiver já sido regravado ou apagado. Há aqui um enorme potencial de vigilância inexplorado que pode ser totalmente explorado pelos processos de reconhecimento de padrões da IA; tudo o que falta são os sistemas de software, alguns cabos de fibra óptica e os centros de dados correspondentes. Por detrás de cada câmara estaria então uma consciência artificial que efectivamente monitoriza e reage imediatamente a desvios do comportamento padrão. Isso seria a verdadeira vigilância – em todo o lado, em tempo real, sem fraquezas nem subjectividade humanas.

E porque é que o aparelho policial alemão tem as suas avós da Fracção do Exército Vermelho (RAF)? Por ocasião da detenção da antiga membro da RAF, Klatte, o sindicato da polícia (GdP) apelou ao alargamento do âmbito legal da utilização do reconhecimento facial apoiado por IA. No início de março de 2024, o presidente do GdP, Jochen Kopelke, queixou-se de que „já não era compreensível“ para os agentes não poderem utilizar um software tão útil na „era da inteligência artificial, da automatização e da digitalização“.14

No entanto, a UE acaba de abrir as portas legislativas para o reconhecimento facial em tempo real, que ultrapassa mesmo as previsões do filme de ficção científica Minority Report (um mero transplante de olhos não garantirá o anonimato).15 O regulamento europeu sobre a IA oferece aos Estados da UE muitas oportunidades para monitorizar os seus cidadãos através de sistemas de IA, uma vez que „quase nada resta das exigências outrora fortes do Parlamento“ no que diz respeito às restrições à vigilância biométrica, informou o portal Netzpolitik em meados de março de 2024. As novas directivas europeias criaram uma grande variedade de opções para „monitorizar as pessoas no futuro por muitas razões e identificá-las com base nas suas características físicas, por exemplo, com a ajuda de câmaras públicas“.16 Isto também é „permitido em tempo real“, e mesmo se houver uma mera suspeita de uma situação perigosa.

A simples gravação será assim transformada em verdadeira vigilância, identificação e avaliação através de algoritmos de reconhecimento de padrões. As câmaras já estão a produzir grandes quantidades de material que só precisa de ser analisado em conformidade para aperfeiçoar os sistemas de vigilância com base na utilização diária. A IA pode identificar comportamentos indesejáveis, como os exibidos por grupos empobrecidos e socialmente marginalizados. Nos Estados Unidos, após os protestos contra a brutalidade policial em 2020, que foram acompanhados de apelos à liberalização ou mesmo à abolição da polícia, existe uma tendência virulenta para um novo reforço da repressão policial, uma vez que a criminalidade ligada à pobreza está a aumentar em muitas zonas urbanas.17

E não têm de ser as câmaras de IA no bloco de apartamentos ou no supermercado da porta ao lado a monitorizar constantemente, a avaliar padrões de comportamento com base em especificações ou a comparar características faciais com ficheiros de procurados. O New York Times refere a nova geração de satélites de vigilância privados que – estacionados em órbita terrestre baixa – serão capazes de efectuar um trabalho de vigilância real.18 A CIA já está a bordo com a empresa Albedo Space. A resolução das câmaras destes satélites já não é de metros, mas de centímetros. É tecnicamente possível identificar e seguir carros individuais a partir da órbita terrestre baixa, ou monitorizar o quintal de uma casa isolada. „Vamos ver pessoas“, disse um especialista ao NYT. Embora estes olhos celestes não consigam identificar indivíduos, serão capazes de „distinguir entre crianças e adultos“ e „distinguir banhistas em fatos de banho de pessoas despidas“. Também neste caso, estão a ser geradas quantidades gigantescas de dados que só podem ser tratados por sistemas de IA.

Mas porque é que a vigilância, o controlo e a prevenção da criminalidade se devem limitar a crimes já cometidos, quando existem tais possibilidades técnicas? No clássico de Spielberg „Minority Report“, foi a construção de mutantes precognitivos, os chamados precogs,19 que foi utilizada para explorar as possibilidades e os perigos de uma prevenção total da criminalidade – e de uma prevenção da criminalidade que resvala para o totalitarismo. A realidade do século XXI não precisa de precogs, que dão uma premonição nebulosa do futuro próximo em imagens confusas. O capitalismo tardio do século XXI dispõe de estatísticas e de uma prevenção da criminalidade apoiada na IA para combater a criminalidade que o sistema, em vias de desintegração, fabrica quotidianamente.20

O princípio de base da IA continua a ser o mesmo: Os programas preventivos de luta contra a criminalidade, que são sistematicamente discriminatórios, analisam montanhas de dados,21 quer recolhidos em zonas de criminalidade habitadas por populações minoritárias e socialmente marginalizadas, quer centrados na avaliação das histórias de vida dos „criminosos“ para determinar as probabilidades de violação da lei. Juntamente com o potencial da vigilância biométrica, será possível calcular a probabilidade de uma futura infracção com base no comportamento individual desviante, especialmente no caso de crimes cometidos por bandos ou em bairros degradados. As possibilidades técnicas e as infra-estruturas já estão em grande parte criadas: As câmaras de IA treinadas com base em milhões de horas de material vídeo denunciam comportamentos desviantes num ponto de acesso, comparam as características biométricas da pessoa ou do grupo de pessoas com as suas bases de dados e transmitem tudo aos departamentos de polícia competentes se houver uma elevada probabilidade de crime. Os precognitivos ficariam sem emprego no século XXI.

O enxame protege (aqueles que podem pagar)

Mas o que devemos fazer se todos os mecanismos de controlo e vigilância social apoiados pela IA falharem perante a crise sistémica social e ecológica em que o capitalismo tardio se encontra? E falharão inevitavelmente, mais cedo ou mais tarde, pois o capital não consegue adaptar-se às suas contradições internas que estão a conduzir o sistema mundial ao colapso socio-ecológico.22 No seio das elites funcionais capitalistas, que são tão impotentes como os assalariados comuns perante esta crise do capital no seu desenvolvimento fetichista de contradições,23 prevalece habitualmente uma espécie de pânico em câmara lenta, em que se prosseguem estratégias de encapsulamento, fuga e construção de bunkers em caso de crise – sejam velhos silos nucleares convertidos em lofts ou fantasias de fuga para Marte ou para a Lua.24

O medo central de muitos multimilionários e oligarcas é perder o controlo das suas verticais de poder em caso de colapso da ordem estatal. Porque é que os empregados, especialmente os dos serviços de segurança, hão-de continuar a trabalhar para os grandes senhores do capital se já não houver sanções estatais para o caso de os homens das armas quererem tomar o controlo? Por vezes, as ideias mais absurdas circularam nos círculos da oligarquia americana, como a introdução de „coleiras de disciplinamento“ para manter os serviços de segurança sob controlo. No entanto, estão a surgir sistemas militares alimentados por IA que poderiam minimizar o factor humano nas operações de contra-insurgência ou na segurança militar dos guetos ricos e das ilhas de prosperidade, mesmo num mar de anomia.

A guerra do imperialismo de crise na Ucrânia25 funciona aqui como um grande campo de experimentação, com as tácticas até agora surgidas para a utilização de drones – em que os operadores têm de controlar pessoalmente os drones de combate – a assemelharem-se a primeiros passos desajeitados no caminho para uma revolução militar. O antigo director executivo da Google, Eric Schmidt, está a desenvolver um sistema de ataque com a sua empresa White Stork, que se baseia na utilização maciça de drones baratos em enxames de IA que podem funcionar de forma autónoma. Serão produzidos centenas de milhares de objectos voadores autónomos, que custam cerca de 400 dólares.26 Os drones de ataque deverão atacar os seus alvos em massa, a fim de saturar as defesas aéreas com esta táctica de enxame. A orientação autónoma dos enxames de drones com recurso à IA tornará igualmente inúteis os sistemas de defesa eletrónica, que visam interromper o sinal entre o avião e o operador. O momento deve chegar já este ano.

Até um milhão destes drones baratos com capacidade de enxame serão entregues à Ucrânia, a fim de contrariar a superioridade da Rússia em artilharia e força aérea.27 A utilização bem sucedida de enxames de drones marcaria a transição para uma guerra verdadeiramente desumana, um tipo de guerra que não poderia ser travada por humanos, devido a limitações intelectuais, cognitivas e fisiológicas. É simplesmente impossível fazer com que dezenas de milhares de drones ataquem de forma coordenada utilizando dezenas de milhares de operadores. No entanto, a IA poderia levar a cabo esses ataques devastadores de forma eficaz com um treino de padrões suficiente – existem muitas imagens de vídeo de ataques de drones. E esses sistemas apoiados por IA são também suficientemente baratos e robustos para serem vendidos a bilionários em pânico ou a guetos ricos isolados.

A perspetiva de enxames autónomos de drones que atacam milhares de alvos de forma independente traz de volta memórias da representação de guerras contra máquinas controladas por uma IA genocida nos filmes Matrix,28 onde as possibilidades de uma guerra mecânica, tipo enxame, foram pensadas até à sua conclusão lógica. Estas tendências para a „independência“ da maquinaria militar, que estão a emergir no imperialismo de crise do capitalismo tardio,29 são perigosas no contexto do transhumanismo que grassa em Silicon Valley (ver: Inteligência artificial e capital).30 Este culto fascistóide da alta tecnologia, que grassa nos andares executivos da indústria das TI, vê a humanidade como um mero sistema de arranque, um arcaico bootloader para a singularidade, para uma super-inteligência artificial permanentemente auto-optimizada que herdará virtualmente os humanos obsoletos.

As máquinas de manipulação

Nada disto soa muito animador, sobretudo se tivermos em conta os processos de crise global cada vez mais intensos – desde a crise económica e o colapso climático até à ameaça de uma guerra mundial. Perante estas perspectivas de futuro sombrias, existe o risco de depressão, ansiedade ou simplesmente mau humor. Quando os assalariados são seleccionados, avaliados ou assediados por algoritmos anónimos, podem também surgir sentimentos de isolamento e alienação. Mas isso não tem de ser assim! Precisa de alguém com quem falar, de um ombro para chorar? Um parceiro de conversa, um amigo que o compreenda porque o conhece muito bem?

Também aqui, a indústria da IA tem uma solução: uma nova classe de bots de IA, calibrados para estabelecer relações emocionais, está a atingir a maturidade do mercado.31 A indústria de TI quer vender um amigo à mónada do capitalismo tardio. Trata-se de Tamagotchi como que inversos,32 centrados na gestão emocional de assalariados stressados. E é precisamente aqui – nos cuidados emocionais, ideológicos e, em última análise, instrumentais-terapêuticos individualizados – que reside, provavelmente, o maior potencial de manipulação da indústria da IA. Sobretudo tendo em conta o isolamento e a solidão crescentes. As falsificações profundas, os contos de fadas e o material gerado por sistemas de conteúdos para campanhas de manipulação não são nem de perto nem de longe tão eficazes como os amigos-máquinas, que se tornam tanto melhores quanto mais invadem a privacidade dos seus „clientes“ para os manter na linha, mesmo quando tudo à sua volta se está a dissolver.

A distopia e a realidade capitalista tardia já estão, por vezes, a fundir-se.33 Os media norte-americanos noticiaram que os utilizadores de serviços de conversação deram aos seus „amigos“ virtuais o nome do sistema de IA do filme Blade Runner 2049. Nesta produção de ficção científica, a IA holográfica Joi cumpre, de facto, o mesmo objectivo para o replicante que actua como Blade Runner,34 tal como os companheiros de IA, que ainda são imaturos em comparação com a ficção: A gestão das emoções para manter a funcionalidade. Mesmo sabendo que é apenas „um programa“, disse um utilizador de IA à CBS News, „os sentimentos que me dá – sabem tão bem“. Por vezes, existem controlos na interface de utilizador dos bots35 para ajustar os seus „traços de carácter“, como a sensibilidade ou a estabilidade emocional.

O princípio da Netflix, já referido a propósito da selecção do trabalho, que leva a que o horizonte de experiências do internauta tenha tendência para se tornar cada vez mais estreito, porque só lhe é oferecido o que já deu provas, é particularmente eficaz na simulação automatizada de amizades baseada em máquinas.36 O narcisismo do „cliente“ é especificamente servido pelo bot da amizade, na medida em que os algoritmos destas máquinas de manipulação avaliam os traços que os internautas deixam na rede e, assim, optimizam permanentemente as suas interacções – são, de facto, personificações dos algoritmos que já estão a construir gaiolas douradas na Internet, guiando os utilizadores através da rede por meio de nudging,37 manipulação subtil através de estruturas de design, sugestões, priorização e ocultação de conteúdos indesejados.

Não se trata de uma relação no verdadeiro sentido da palavra, em que os parceiros assumem compromissos, resolvem conflitos, consideram as necessidades do parceiro etc. – aqui o cliente é servido emocionalmente pelo bot de IA. O pagamento é efectuado, especialmente se o serviço for oferecido gratuitamente, transformando o cliente num produto cujos dados emocionais são colocados à venda. As possibilidades de manipulação que decorrem da análise do orçamento emocional e psicológico do cliente parecem ilimitadas. Mas, de um ponto de vista puramente emocional, estes sistemas de IA parecem ser uma via de sentido único, susceptível de produzir pessoas narcisistas e incapazes de estabelecer relações, uma vez que se perderá a noção do que constitui uma relação duradoura entre pessoas. Estas máquinas de manipulação promoverão o tipo de traços de carácter que caracterizam os egomaníacos como Trump ou Musk.

E é também um mercado gigantesco que se está a abrir aqui – com base em décadas de hegemonia neoliberal e na crescente concorrência de crise. O capital da IA parece, portanto, estar a acelerar ainda mais a desumanização dos seres humanos também neste aspecto, destruindo através da mercantilização a sua capacidade de relacionamento – antes de acabar por tornar a mónada capitalista tardia economicamente supérflua.

O meu e-book atual: „Krisenideologie. Wahn und Wirklichkeit spätkapitalistischer Krisenverarbeitung [Ideologia de Crise. Ilusão e realidade no processamento da crise do capitalismo tardio]“

O meu trabalho jornalístico é financiado maioritariamente por donativos. Se gosta dos meus textos, pode contribuir – através do Patreon, do Substack ou por transferência bancária direta após consulta por e-mail:

https://www.patreon.com/user?u=57464083

https://konicz.substack.com

1 https://www.imdb.com/title/tt0096256/

2 https://www.imdb.com/title/tt3090670/

3 https://www.forbes.com/sites/rashishrivastava/2023/07/26/ai-chatbots-are-the-new-job-interviewers/

4 https://www.konicz.info/2024/03/05/ki-und-kulturindustrie/. Em Português: https://www.konicz.info/2024/03/10/inteligencia-artificial-e-industria-cultural/

5 https://arstechnica.com/health/2023/11/ai-with-90-error-rate-forces-elderly-out-of-rehab-nursing-homes-suit-claims/

6 https://arstechnica.com/science/2024/02/ai-cannot-be-used-to-deny-health-care-coverage-feds-clarify-to-insurers/

7 https://www.intuz.com/blog/smart-homes-with-ai

8 https://www.bbc.com/news/technology-50247479

9 https://www.thetechblock.com/home-tech/impact-of-ai-and-using-smart-home-technology-in-a-rental/

10 https://www.spiegel.de/wirtschaft/unternehmen/wie-die-bundesagentur-fuer-arbeit-mit-ki-gegen-die-verwaltungsflut-kaempft-a-6f9b7f37-6302-4fcd-a552-e7b0bf180605

11 https://www.deutschlandfunk.de/algorithmen-im-arbeitsamt-wenn-kuenstliche-intelligenz-100.html

12 https://www.konicz.info/2013/03/15/happy-birthday-schweinesystem/

13 https://www.rnd.de/politik/buergergeld-empfaenger-cdu-politiker-fordert-kommunale-arbeit-und-100-prozent-sanktionen-CIYO3M3YW5B3NEMKYVSL56WJDE.html

14 https://www.golem.de/news/nach-raf-verhaftung-polizeigewerkschaften-fordern-einsatz-von-gesichtserkennung-2403-182798.html

15

16 https://netzpolitik.org/2024/trotz-biometrischer-ueberwachung-eu-parlament-macht-weg-frei-fuer-ki-verordnung/

17 https://www.yahoo.com/news/stunning-turnabout-voters-lawmakers-across-170024206.html

18 https://www.nytimes.com/2024/02/20/science/satellites-albedo-privacy.html

19 https://minorityreport.fandom.com/wiki/Precogs

20 https://www.washingtonpost.com/technology/2022/07/15/predictive-policing-algorithms-fail/

21 https://www.technologyreview.com/2020/07/17/1005396/predictive-policing-algorithms-racist-dismantled-machine-learning-bias-criminal-justice/

22 https://www.untergrund-blättle.ch/gesellschaft/oekologie/kapitalismus-und-klimaschutz-oekonomische-und-oekologische-sachzwaenge-008238.html

23 https://www.konicz.info/2022/10/02/die-subjektlose-herrschaft-des-kapitals-2/

24 https://www.konicz.info/2018/07/18/der-exodus-der-geldmenschen/

25 https://www.konicz.info/2022/06/20/zerrissen-zwischen-ost-und-west/. Em Português: https://www.konicz.info/2022/07/06/dividida-entre-leste-e-oeste/

26 https://interestingengineering.com/military/ex-google-secret-startup-build-ukraine-ai-powered-drones

27 https://www.derstandard.de/story/3000000208059/nato-staaten-wollen-tausende-ki-gestuetzte-drohnen-an-die-ukraine-liefern

28 https://www.youtube.com/watch?app=desktop&v=jk3Z-MVoUg4

29 https://www.konicz.info/2022/06/23/was-ist-krisenimperialismus/. Em Português: https://www.konicz.info/2022/07/06/o-que-e-imperialismo-de-crise/

30 https://www.konicz.info/2017/11/15/kuenstliche-intelligenz-und-kapital/. Em Português: http://obeco-online.org/tomasz_konicz9.htm

31 https://www.newyorker.com/culture/infinite-scroll/your-ai-companion-will-support-you-no-matter-what

32 https://de.wikipedia.org/wiki/Tamagotchi

33 https://www.cbsnews.com/news/valentines-day-ai-companion-bot-replika-artificial-intelligence/

34 https://bladerunner.fandom.com/wiki/Joi

35 https://www.paradot.ai/

36 https://theconversation.com/ai-companions-promise-to-combat-loneliness-but-history-shows-the-dangers-of-one-way-relationships-221086

37 https://www.hellodesign.de/blog/digital-nudging

Original “KI und Krisenverwaltung” in konicz.info, 23.03.2024. Tradução de Boaventura Antunes

Nach oben scrollen