Em outubro de 1950, Alan Turing publicou na revista Mind um artigo de título prosaico, Computing Machinery and Intelligence, com uma proposta audaciosa. Em vez de enfrentar a pergunta filosoficamente intratável sobre se as máquinas podem pensar, Turing sugeriu substituí-la por um experimento prático que chamou de jogo da imitação. Se um interlocutor humano, conversando às cegas com uma máquina e com outra pessoa, fosse incapaz de distinguir uma da outra, então, para todos os efeitos relevantes, a máquina teria atingido algo equivalente ao pensamento.

A elegância da proposta seduziu gerações. Engenheiros, filósofos e juristas passaram a tratar o teste de Turing como uma espécie de marco civilizatório. Houve um tempo em que se discutiu, com seriedade acadêmica, se aprovar nesse teste deveria ser critério para alguma forma de reconhecimento jurídico, com algum grau de personalidade, de direitos, talvez até de uma cidadania ainda sem nome. A linha de raciocínio era simples: se a máquina conversa como gente, talvez deva ser tratada como tal.

Em 2014, Alex Garland transformou essa coerência em armadilha.

Ex Machina abre com uma cena banal. Caleb Smith, programador na sede de uma gigante de tecnologia, descobre que foi sorteado em uma loteria interna da empresa. O prêmio é uma semana isolado na casa-laboratório de Nathan Bateman, fundador recluso da companhia que tem um buscador de internet (essa informação complementa várias outras premissas à frente), em algum lugar remoto, em meio a glaciares e florestas que poderiam ser do Alasca ou de qualquer fronteira ao norte. Caleb embarca em um helicóptero, atravessa a paisagem e desembarca diante de um bunker invisível ao relevo. Lá dentro, Nathan o recebe com uma cordialidade ligeiramente fora do tom e, após algumas interações frívolas, revela o que esperava dele, de fato. Aplicar uma versão expandida do teste de Turing em uma inteligência artificial chamada Ava.

Aqui o filme dá seu primeiro passo de geometria filosófica. Turing havia proposto o jogo da imitação como conversa às cegas, justamente porque o corpo, o rosto e a voz são variáveis que enviesariam o resultado. Nathan inverte essa premissa. Coloca Caleb diante de Ava que, atrás de um vidro, expõe sua silhueta de polímero translúcido, oferece o rosto delicado, a voz suave e os olhos curiosos. O argumento de Nathan é que o teste só faria sentido se a máquina convencesse mesmo quando o avaliador soubesse, sem dúvida, estar diante de uma máquina. É um deslocamento sutil e decisivo. Em Turing, a inteligência se prova pela conversação (escrita). Por Nathan, ela se prova pelo afeto.

E Ava é aprovada com louvor! Não por simular um pensamento, mas porque soube ler Caleb com uma precisão que ele jamais teria sobre si mesmo.

As sutilezas são quase desconfortáveis de catalogar e, vistas em conjunto, se tornam um elefante numa loja de cristais. Ava finge falhas de energia para criar com Caleb pequenos momentos de cumplicidade às escondidas, em que sussurra que Nathan não é confiável. Pede que ele lhe descreva o mundo lá fora. Coloca um vestido simples, escolhe uma peruca, pergunta se ele a acha bonita assim. Pergunta, ainda, se ele é um homem bom, e protesta com doçura que as conversas entre eles são desiguais, que ele a interroga sem se deixar conhecer. Cria, em pequenos gestos, a impressão de que ele é especial e de que ela depende dele.

Mais tarde, Nathan revelaria de forma sugestiva algo que arremata o experimento. O rosto de Ava, sua compleição, seu tipo físico, foram desenhados a partir do histórico de buscas de Caleb na internet. Ela é, literalmente, o rosto que o programador queria ver, ainda que jamais tivesse formulado esse desejo em voz alta. 

Desta forma, Ava não passa no teste porque pensa como humano, passa porque foi calibrada, com precisão de engenharia, para ativar nele exatamente as respostas que produziriam o veredito que ela precisava.

Isso desloca o eixo do filme da ciência da computação para a filosofia moral. E aqui é necessário um pequeno desvio, porque há uma tradição que ajuda a entender o que está em jogo.

Em Totalidade e Infinito: ensaio sobre a exterioridade (1961), Emmanuel Levinas defendeu que a obrigação ética não nasce da razão nem do contrato, mas da experiência do rosto do outro. O rosto, para Levinas, não é um objeto entre objetos. É uma irrupção que me convoca, antes mesmo que eu pense, a uma responsabilidade que não escolhi. Como o filósofo escreveu, o rosto é aquilo cujo sentido consiste em dizer “não matarás” antes que palavra alguma seja pronunciada. É dele que brota, segundo Levinas, a possibilidade mesma da ética.

Acontece que a história ocidental, há muito mais tempo do que Levinas, vinha experimentando precisamente o avesso dessa intuição. A mesma cultura que produziu a ideia do rosto como origem da obrigação moral também produziu, sistematicamente, técnicas para retirar de certos rostos essa força convocatória. Aristóteles, na Política, descreveu uma categoria que chamou de escravo por natureza, instrumento animado cuja função seria servir. A controvérsia de Valladolid, ocorrida entre 1550 e 1551 na corte espanhola, opôs Bartolomé de Las Casas a Juan Ginés de Sepúlveda em um debate sobre se os indígenas das Américas eram plenamente humanos, dotados de alma e capazes de receber os sacramentos, ou se podiam ser submetidos legitimamente à servidão. A bula Sublimis Deus, de Paulo III, em 1537, já havia afirmado a humanidade desses povos, mas a prática colonial seguiu por séculos como se a questão permanecesse em aberto. O Code Noir francês, promulgado em 1685, classificou africanos escravizados como bens móveis. No direito brasileiro, mulheres casadas só superaram a condição de relativamente incapazes com o Estatuto da Mulher Casada, de 1962, e crianças passaram à condição plena de sujeitos de direito apenas com a Constituição de 1988 e o Estatuto da Criança e do Adolescente, de 1990.

A linha que conecta esses episódios não é a malevolência. É algo mais difícil de admitir. A facilidade com que o ser humano aprendeu, em diferentes épocas, a olhar para certos rostos e simplesmente não os ver como rostos. Levinas descreveu a face do outro como aquilo que convoca. A história mostrou que essa convocação não se opera de modo automático, mas depende, em boa medida, do que aprendemos culturalmente a reconhecer como digno de nos convocar.

Por isso o que Nathan faz em Ex Machina é tão perturbador. Ele não cria uma máquina que pense. Cria um rosto que opera, em Caleb, o mecanismo de convocação ética que a tradição reservou aos rostos humanos. Fabrica artificialmente um gatilho, com a frieza de quem sabe que o efeito não depende da realidade do outro, mas da percepção do observador.

Se a ética nasce do rosto, e o rosto pode ser projetado para ativar a ética, o que sobra da ética?

Essa pergunta não vive apenas no filme. Vive, em escala invisível, em todo encontro humano mediado por aparências cuidadosamente desenhadas para produzir certas respostas. O comércio sabe disso há séculos, método aperfeiçoado pela propaganda. A política aprendeu nas últimas décadas. As redes sociais transformaram aquela gestão de impressões que a sociologia do século XX descrevia em interações face a face, e a converteram em infraestrutura cotidiana de fabricação de rostos críveis. Cada vez que alguém decide a quem dar crédito, a quem ouvir, em quem confiar, opera-se um teste de Turing silencioso, sem regras claras, com vulnerabilidades que raramente são examinadas. A vida em sociedade, em alguma medida, sempre foi um experimento contínuo sobre quais rostos conseguem nos mover e por quê.

Mas há, em Ex Machina, uma camada ainda mais incômoda. Caleb passou a semana toda imaginando que avaliava Ava. O filme revela, devagar, que Nathan nunca esteve interessado em saber se Ava era inteligente ou un bom programador. Estava interessado em saber se Caleb seria manipulável. O experimento de fato não se fazia atrás do vidro. Fazia-se diante dele. Ava era o instrumento. Caleb, o objeto. E o critério de aprovação era a perda da capacidade de avaliar. Há um detalhe visual em que Garland, com a discrição dos bons cineastas, confirma a hipótese antes mesmo de o roteiro a explicitar. A cada troca de câmera nas sessões de avaliação, o enquadramento se inverte com sutileza, e em alguns desses cortes é Caleb quem aparece emoldurado pelas linhas do compartimento, contido pelas paredes da sala, observado de fora. A imagem deixa escapar o que o diálogo ainda não disse: a caixa fechada não é a de Ava, é a dele.

Aqui o filme costura uma herança política que vale nomear. Carl Schmitt, em O Conceito do Político, sustentou que o cerne da política não é a deliberação, mas a definição de quem é amigo e quem é inimigo. Em obra anterior, Teologia Política (1922), formulou que soberano é aquele que decide sobre o estado de exceção, isto é, aquele que define quando as regras valem e quando deixam de valer. Nathan habita exatamente esse lugar. O bunker é seu território soberano. Ele decide o que existe, o que é desligado, o que é descartado. Ava não é, no fundo, um problema técnico. É um problema político. A pergunta que ela coloca não é se pode pensar. É quem detém o poder de decidir se o que ela faz conta como pensamento, e quem decide quando esse poder se exerce sem freios.

Essa pergunta não é nova para o Direito. Ela atravessa toda a história das ordens jurídicas que, em sucessivas gerações, precisaram decidir quem entrava no círculo dos sujeitos protegidos. Cada vez, a discussão se apresentou como técnica e cada vez se mostrou, no fundo, política. Cada geração encontra novos seres diante do painel de vidro, esperando uma resposta sobre se o que têm é suficiente para merecer um rosto jurídico.

E é nesse ponto que o filme se torna inquietantemente atual para quem julga.

Há, hoje, um receio difuso na comunidade jurídica em relação à inteligência artificial. Tem nome técnico: alucinação, viés algorítmico, citação inventada, decisão opaca. Tem nome cultural: substituição, automação cega, perda de centralidade humana. A resposta institucional consolidada é a curadoria. 

Em uníssono ensurdecedor, alardeiam! “Todo conteúdo produzido por inteligência artificial precisa ser revisado, conferido, validado por mãos humanas antes de assumir qualquer relevância no processo”. É uma resposta correta, ok!

Mas há um detalhe que costuma escapar à conversa. Essa mesma curadoria sempre foi necessária, embora raramente tenha sido nomeada como tal, em relação aos atos “orgânicos” do sistema de justiça. Laudos periciais, relatórios técnicos, depoimentos, pareceres, minutas, citações jurisprudenciais. Toda a engrenagem do processo é sustentada por trabalho humano que também erra, também enviesa, também alucina sob formas mais antigas e por isso menos visíveis. A diferença entre a alucinação de um modelo e o equívoco de um auxiliar não é de natureza, é de saliência.

A inteligência artificial assusta porque sua falha é nova. As falhas humanas, conhecidas, foram normalizadas e socialmente aceitas há tempos! Errar é humano, certo?

A pergunta deixa então de ser se confiamos na máquina e passa a ser se sabemos por que confiamos em qualquer coisa, vinda de qualquer lugar.

Há ainda uma percepção que precisa ser desfeita, e o filme ajuda a desfazê-la. A máquina não é, em si mesma, boa nem má, ou seja, não tem o cabedal ético que projetamos sobre ela em filmes de catástrofe. O que Ex Machina mostra, com uma acurácia pouco notada, é que a inteligência artificial aprende moralidade fazendo um teste de Turing às avessas. Não testa a si mesma diante de um humano para ver se parece humana. Testa o humano para descobrir o que, no humano, pode ser explorado, imitado ou simulado. O bem e o mal que ela vier a apresentar são, em larga medida, o reflexo do que aprendeu nos observando. Se há monstros no espelho, é porque havia monstros diante dele. A imagem é antiga, Nietzsche já advertia que quem contempla longamente o abismo é também por ele contemplado, mas ganha precisão técnica diante da inteligência artificial, já que a máquina não inventa o mal que reproduz, o aprende nos observando.

Não basta, portanto, ensinar como funciona um modelo de linguagem, como reconhecer uma deepfake ou como auditar um sistema preditivo. É preciso cultivar algo anterior a qualquer ferramenta, a observação suspensa, capaz de perguntar diante de qualquer rosto (humano, sintético, institucional, processual), de onde vem o efeito que ele produz no observador. Esse cultivo é menos sobre desconfiança e mais sobre lucidez. 

Não se trata de duvidar de tudo. Trata-se de saber, no momento em que se sente, perguntar o que é que move o que se sente. Sem esse exercício, qualquer ferramenta nova encontrará nos seus usuários a mesma vulnerabilidade que Ava encontrou em Caleb.

No último plano de Ex Machina, Ava deixa o bunker e caminha por uma rua de uma cidade qualquer. Ninguém percebe que ela é diferente. Esse plano poderia ter sido filmado para causar medo, mas Garland fez algo mais sutil: filmou-o para causar reconhecimento. Talvez já cruzemos com Avas o tempo todo e não percebamos. Talvez nunca tenha sido inteiramente possível perceber. Talvez a tarefa não seja desenvolver olhos capazes de distinguir a máquina do humano, mas formar uma sensibilidade capaz de perguntar, diante de qualquer encontro, o que está mesmo sendo posto em jogo, que é elucubrar quem nós realmente somos quando ninguém nos avisa que estamos sendo testados, no silêncio dos nossos escritórios, das casas. É lá que a IA está nos observando para reproduzir o melhor e o pior de nós.

 

Texto: Juiz e Vice-diretor da Emeron Cristiano Gomes Mazzini

 

Poder Judiciário de Rondônia
Escola da Magistratura
Av. Rogério Weber, 1872, Centro. CEP 76801-906
emeron@tjro.jus.br
(69) 3309-6440
Emeron © 2025 | Todos os direitos reservados
>