Inteligência Artificial: origem, dilemas e contemporaneidades

Um século separa a frase “inteligência é invisível para quem não tem nenhuma”, de Arthur Schopenhauer (1788-1860), do surgimento do conceito de inteligência artificial, em 1955. Apesar de o smartphone ou computador que você usa para acessar esta reportagem possuir algum nível de IA, ela está longe de ser compreendida como parte do mundo físico. Na nossa sociedade, sistemas como o Maps do Google já influenciam nossas rotas diárias e outros, como o Nubank, já decidem autonomamente, através de algoritmos, serviços que definem parte da nossa vida, como o valor do nosso crédito. Anunciado com deslumbramento pelos seus desenvolvedores e introduzido nas nossas vidas sem plena aceitação, os novos avanços da IA e da robótica ainda possuem muitos campos que devem ser explorados e explicados, portando-se como uma espécie de Caixa de Pandora que, a depender da forma como for aberta, pode libertar maravilhas e horrores. 

Ao mesmo tempo que oferece conhecimento, melhora e barateia serviços e cria atalhos, também abre espaço para danos sociais como desemprego, marginalização das classes baixas, manutenção de privilégios e outros mecanismos que fomentam a desigualdade. Em 2020, seus impactos já podem ser sentidos em toda a organização social, da administração pública ao campo das artes. Na economia mundial, estima-se que o valor de ativos financeiros administrados por robôs chegou a US$ 980,5 bilhões em 2019, de acordo com o Statista. No campo do trabalho, a Organização para a Cooperação e Desenvolvimento Econômico (OCDE) já lançou um estudo sobre como a automação ameaça empregos. Nos Estados Unidos, já utilizam-se sistemas de IA em ações militares e documentação de dados públicos. Na França, um coletivo chamado Obvious produziu uma série de retratos a partir dessa tecnologia.

A origem da Inteligência Artificial remonta a um desejo muito mais antigo que o Vale do Silício, epicentro das principais produções tecnológicas do mundo. Séculos antes da criação de processadores, autômatos (objetos com aparência de seres vivos que reproduzem seus movimentos por meios mecânicos) deslumbraram a aristocracia europeia e, posteriormente, o restante da sociedade, revelando uma espécie de longa construção coletiva humana até que campos como a robótica e a inteligência artificial tomassem forma. Confira na linha do tempo abaixo:

Observando essa longa caminhada, desde os autômatos de Leonardo da Vinci à robô Sophia, é possível constatar um grande avanço impulsionado por iniciativas que culminaram nos dispositivos super avançados conhecidos atualmente. Mas, a despeito de todas as possibilidades já em curso, ainda não temos entre nós uma inteligência artificial propriamente dita. “Importante notar que a IA nada tem de inteligência, pelo menos segundo a maior parte das definições de inteligência e pelo senso comum. Essas tecnologias executam tarefas específicas, a partir de várias etapas definidas ou decididas por um cientista da computação, ou seja, um humano. São coisas como variáveis e peso de cada variável, arquitetura do modelo, amostra de dados e algoritmos”, explica Dora Kaufman, socióloga e doutora no Programa de Tecnologias de Inteligência e Design Digital PUC-SP.

“O que estamos vivenciando na última década são os avanços relacionados a um novo caminho, pensado nos anos 1980 e concretizado recentemente, para a subárea da IA chamada ‘aprendizado de máquina’ (machine learning). O novo caminho é inspirado no funcionamento do cérebro dos animais, por isso é também denominado de ‘redes neurais’. Algumas atividades humanas esses sistemas já executam em tempo infinitamente menor e com mais assertividade (ou acurácia). Em geral, são tarefas que envolvem predição com base em grandes volumes de dados. Ou seja, são modelos estatísticos de probabilidade baseados em grandes conjuntos de dados”, detalha.

Redes neurais artificiais podem ser entendidas como um sistema cujo objetivo é a aproximação do cérebro humano para o processamento de dados. É que nosso cérebro pode ser considerado uma espécie de processador complexo, capaz de realizar diversos procedimentos de forma paralela. Ou seja: ele organiza seus neurônios de acordo com a tarefa, para que eles executem o processamento em questão. Esse processo é realizado numa velocidade extrema e não existe nenhum processador artificial capaz de fazer essas atividades complexas na mesma rapidez do nosso cérebro. Apesar disso, as redes neurais artificiais são desenvolvidas com o norte do nosso sistema de processamento de informações, que define suas decisões com base no seu processo de aprendizagem. Dessa forma, uma rede neural é uma espécie de organização artificial com capacidade de armazenamento de dados que simula a aprendizagem. Ele se baseia em conhecimento prévio acumulado (experiência) para uma resolução prática de um problema.

Inteligência artificial pode pensar? O problema começa na definição

A problemática, porém, começa na própria definição de Inteligência Artificial, e remonta ao artigo Computing machinery and intelligence, no ano de 1950. Na publicação, o renomado matemático Alan Turing propôs o questionamento “podem as máquinas pensar?” e afirma que deveríamos, antes de pensarmos na resposta, nos questionarmos acerca dos conceitos de máquina e pensamento. O matemático inglês alerta que essas palavras são conceituadas de acordo com a maneira pela qual são usadas e, se partirmos desse princípio, a resposta para o questionamento lançado seria parecida com a estatística de uma simples pesquisa de opinião, o que seria “absurdo”.

De certa forma, se você pedir para alguma pessoa próxima a definição de inteligência, a resposta não deve ser clara, mas provavelmente ela saberá identificar exemplos de seres inteligentes. Caso você pergunte à sua assistente digital — seja a sem nome do Google, a Siri (caso use IOS) ou, ainda , a Cortana (caso use Windows) — a resposta deve ser “a faculdade de conhecer, compreender e aprender”. Essa definição abre espaço para a inclusão de diversos softwares no clube dos objetos inteligentes. Dessa forma, Alan Turing propõe que, ao invés de buscarmos essas definições, troquemos esse questionamento por outro. Para isso, ele cria uma questão no formato de uma espécie de jogo, batizado por ele de The imitation game (O jogo da imitação). Essa questão desloca a pergunta “podem as máquinas pensar?” para “podem as máquinas se passarem por humanos?”.

‘Software?’ (Colagem: @augusto.vic)

O The imitation game é jogado por três pessoas: um homem (A), uma mulher (B), e um interrogador (C), que pode ser de qualquer sexo. O interrogador fica em uma sala à parte dos outros dois. Para o interrogador, o objetivo do jogo é determinar qual dos dois é o homem e qual é a mulher. Ele os conhecerá pela alcunha de X e Y e, no final do jogo, ele deve dizer “X é A e Y é B” ou “X é B e Y é A”. Para isso, o interrogador pode fazer perguntas para A e B, cujo objetivo é fazer C elaborar uma identificação errada. Turing afirma que, para que o tom de voz ou a caligrafia não ajudem o interrogador, as respostas deveriam ser entregues escritas em máquina de escrever. Definidas as regras do jogo, Turing questiona: “O que acontecerá quando uma máquina assumir o lugar de A neste jogo?“.

“O novo problema tem a vantagem de traçar uma linha bastante nítida entre as capacidades físicas e intelectuais de um homem. Nenhum engenheiro ou químico afirma ser capaz de produzir um material indistinguível da pele humana. É possível que em algum momento isso possa ser feito mas, mesmo supondo que essa invenção esteja disponível, deveríamos sentir que havia pouco sentido em tentar tornar uma ‘máquina pensante’ mais humana, vestindo-a com essa carne artificial. A forma como definimos o problema reflete esse fato na condição que impede o interrogador de ver ou tocar os outros concorrentes ou ouvir suas vozes”, escreve Alan Turing no seu artigo, publicado há mais de 50 anos. 

Questionado se, atualmente, é possível definir inteligência e se podemos dissociá-la do pensamento, João de Fernandes Teixeira, mestre em filosofia pela Unicamp, responde: “Essa é a pergunta que vale um milhão de dólares. Depois de séculos de filosofia e de ciência ainda não conseguimos definir o que é pensamento. Alan Turing enfrentou esse problema no seu artigo. Turing tentou dar uma definição operacional de pensamento, afirmando que uma criatura pensante é aquela que age de uma forma indistinguível da de um ser humano. Mas isso só gerou debate. Quanto à inteligência, a situação é parecida. O que se sabe hoje é que há várias formas de inteligência. Howard Gardner, um dos pioneiros da ciência cognitiva, estudou a multiplicidade de inteligências de vários tipos: pictórica, verbal etc. Hoje em dia a ciência cognitiva e a IA trabalham com uma definição convencional de inteligência: capacidade de resolver problemas. Existe, sim, inteligência sem pensamento. Muitos animais exibem comportamento inteligente, mas há dúvidas quanto à sua capacidade de pensar”.

Com o avanço da computação e da robótica, críticas começaram a ser feitas ao teste de Turing. As principais focam em pontos como: o teste ser apenas comportamental e comparativo. Outro ponto é que alguns comportamentos humanos não são inteligentes e que alguns comportamentos inteligentes não são humanos (dessa forma, o computador poderia fazer erros deliberados e atrasar suas respostas, por exemplo). Por isso, John Searle levantou, em 1980, um cenário chamado de chinese room (sala chinesa). Ele assume que um computador que tenha passado no the imitation game em chinês seja trocado por uma pessoa que comande seu código manualmente, mas que não fala chinês. Bastando isso, a máquina deixaria de exibir um comportamento dito inteligente ou, no caso, humano. Dentro da ficção científica, o filme Blade Runner (1982) chegou a criar um teste chamado Voight-Kampff empathy test, que segue o caminho contrário, tendo como o objetivo separar humanos de androides. 

Inteligente como um humano (Colagem: @augusto.vic)

Turing ainda escreve que as máquinas podem não realizar algo que possa ser descrito como pensamento, mas, por outro lado, poderiam realizar algo totalmente diferente do que o homem faz. Ele afirma que essa objeção do humano para com a falta de capacidade de pensamento da máquina é forte ,mas que, se uma máquina puder ser construída para jogar o jogo da imitação de forma satisfatória, essa objeção não seria mais um incômodo. Como a socióloga Dora Kaufman afirmou, ainda não temos entre nós uma máquina capaz de produzir pensamento ou mesmo inteligência, no sentido mais aceito da palavra. Mas isso não impediu que, ao longo das décadas, seu desenvolvimento não fosse comparado ao humano em várias questões.

Um desses episódios de comparações extremas entre o humano e a máquina desencadeou em uma histórica batalha entre o russo Garry Kasparov e Deep Blue, um computador de última geração montado pela IBM na, década de 90, especialmente para derrotar o campeão de xadrez. O embate foi anunciado como uma espécie de luta definitiva do humano x máquina. Na época, a revista estadunidense Newsweek publicou uma capa com a chamada “The brain’s last stand” (“A última defesa do cérebro”). A partida era um revanche após a vitória do campeão mundial sobre o computador por 4 x 2 em 1996. Em 1997, porém, Deep Blue venceu por 3,5 x 2,5 e o movimento decisivo, revelou-se no documentário TheVerge (2014), foi ocasionado por um bug no sistema do computador, que confundiu completamente a previsão de jogo do humano. 

A previsão de que um computador derrotaria um humano no xadrez pode ser encontrada já 1968, no longa 2001: A space odyssey (Stanley Kubrick). O filme, lançado cerca de um ano antes do homem pisar na lua, mostra a jornada de dois astronautas a bordo de uma nave integrada a uma potente inteligência artificial, que atende por HAL 9000. A ficção científica gerou deslumbramento pelas imagens e possibilidades de um futuro no qual nosso conhecimento sobre o universo e a própria vida chegue a níveis extremos, mas também alimentou a crença de que as máquinas poderiam suprimir a inteligência humana e decidir que nossa espécie não seria mais necessária. O fatídico diálogo entre a IA e Dave, que se encontra trancado fora da nave, reverbera na sétima arte até a contemporaneidade.

Conforme a IA e a robótica foram se desenvolvendo, cresceram as preocupações sobre a capacidade dessas tecnologias machucarem humanos. “São muitos dilemas. Programar um carro autônomo, por exemplo. Em caso de acidente, quem deve ser responsabilizado? O fabricante, dirão. Mas o fabricante argumentará que não tem controle completo sobre a máquina, pois ela é autônoma. Numa situação de emergência, quem ele deve atropelar? Uma criança ou dois idosos? Quem vai embutir regras de escolha no programa dos carros autônomos? O fabricante? Mas baseado em que tipo de ética? Há pouco tempo um fabricante tentou resolver esses dilemas éticos por meio de uma grande consulta na internet. Mas acho isso muito controverso. Pense na situação dos drones. Eles podem invadir o espaço aéreo de qualquer país voando abaixo da linha de detecção por radar. Como fica o conceito de soberania nacional nessa situação? Outra questão muito controversa é a privacidade dos dados. Eles são simplesmente ‘abocanhados’ por sites e redes sociais, quase sempre sem sabermos. Se eles são valiosos devemos poder vende-los ou leiloá-los, não?”, provoca o filósofo João de Fernandes.

Adriano Pila, doutor e mestre em Ciência da Computação e Matemática Computacional, também lança questionamentos: “Eu diria que os dilemas não estão no desenvolvimento das tecnologias, mas sim para que são usadas e com qual propósito. A fissão nuclear não foi criada com o objetivo da bomba nuclear, mas acabou sendo o seu principal destino. Controle. Aniquilação. Domínio. Então, tornando a resposta mais clara, o dilema ético e moral está no uso da Inteligência Artificial. Queremos veículos autônomos para melhorar a mobilidade e até mesmo para que pessoas que nunca tiveram carro ou dirigiram possam ter liberdade de ir e vir? Ou queremos veículos autônomos para podermos trabalhar no caminho de nossas casas até o trabalho enquanto o carro faz o trajeto? Queremos sistemas para monitorar áreas de risco e criminalidade? Ou para monitorar todos os cidadãos e manter um sistema coercitivo?”.

Para tentar organizar esses dilemas, Isaac Asimov lançou “as três leis da robótica” na ficção Eu, robô (1950). A primeira afirma que um robô não pode fazer mal a uma pessoa ou deixar que um humano sofra algum mal. A segunda afirma que os robôs devem seguir as ordens dadas por humanos, exceto quando essas ordens conflitem com a primeira lei. A terceira lei afirma que um robô deve proteger sua própria existência, a não ser que isso que entre em conflito com a primeira ou a segunda lei. Atualmente, políticas internacionais estão em desenvolvimento pela ONU com foco em garantir que essa tecnologia seja utilizada como ferramenta para o cumprimento dos Objetivos de Desenvolvimento Sustentável, traçados pela organização em 2015. Enquanto isso, esforços da Human Rights Watch buscam impedir o desenvolvimento de robôs assassinos.

O porquê do desenvolvimento da IA e da robótica

Deslumbre, conversação, cálculo, viagens espaciais e outras possibilidades parecem ser objetivos desconexos quando falamos do desenvolvimento da inteligência artificial, mas fazem sentido quando colocados como parte de outros objetivos, descritos por Bill Joy, coautor da linguagem Java e fundador da Sun Microsystems, como “os sonhos da robótica”. De acordo o artigo Why the future doesn’t need us, publicado pelo cientista da computação em 2000, na revista Wired, existem dois grandes sonhos na robótica. O primeiro é de que os humanos consigam, com o tempo, se libertar da necessidade de qualquer trabalho repetitivo ou degradante. Isso quer dizer que, através do desenvolvimento de máquinas cada vez mais sofisticadas, essas invenções poderiam assumir o papel de provedoras de recursos e os homens viveriam numa espécie de Éden, se dedicando integralmente ao lazer. O segundo prevê que, num futuro próximo, iremos aos poucos trocando ou melhorando partes do nosso corpo com tecnologia robótica, chegando em um nível de quase imortalidade através de um sistema de download de consciências. 

Mesmo escrito 20 anos antes, o artigo do cientista da computação se alinha com as falas de Dora Kaufman e João de Fernandes. Ele afirma que não temos entre nós  e não devemos ter por, pelo menos, algumas décadas  uma inteligência artificial que possa suprimir nossas capacidades de maneira que nos coloque em risco. Mas afirma que, ao observar com calma seu trabalho com o Java e outras linguagens, percebeu que estava trabalhando para criar as ferramentas que permitiriam a criação desses mecanismos. Em uma espécie de autoanálise, ele diz que se sente mal por isso, pois enxerga que esses sonhos utópicos estão sendo transformados em pesadelos causados pelo nosso sistema econômico e, consequentemente, pelas elites que o comandam.

No artigo, quando escreve sobre humanos, é possível considerar que o autor se refere ao que atualmente consideramos os 99% da população mundial que não fazem parte da fatia do 1% mais rico da humanidade. Dito isso, ele afirma que a classe trabalhadora seria cada vez mais marginalizada em um processo de automatização da sociedade, que culminaria da extinção dessa classe. Ou seja, a sociedade chegará em um ponto em que as massas se tornarão supérfluas, pois o trabalho e a exploração humana não serão mais necessárias para a acumulação e manutenção das riquezas das classes dominantes. Nesta reportagem, escrita em 2020 em meio à uma pandemia e consequentes tumultos sociais e políticos, investigaremos o futuro que está sendo desenhado para a classe trabalhadora em um planeta que parece dar recados de que não tem mais espaço para nós.