top of page

HELLO DAVE! - Os temores do Padrinho da IA


ree

No dia 1º de maio de 2023 o repórter de tecnologia do The New York Times, Cade Metz, anunciou:


O Padrinho da Inteligência Artificial sai do Google e avisa sobre o perigo adiante – Por meio século, Geoffrey Hinton alimentou a tecnologia no coração de chatbots como o ChatGPT. Agora ele teme que isso cause sérios danos.”


No dia 30 daquele mesmo mês de maio, o podcast The Daily, do NYT, colocou no ar o episódio “O padrinho da IA tem alguns arrependimentos”.


Reportagem e entrevista trazem impressões e declarações fortes. Para dimensioná-las com propriedade, faremos uma síntese da entrevista de Metz, buscando explicar porque as palavras de Geoffrey Hinton — considerado por muitos a pessoa mais importante para a ascensão da IA nos últimos 50 anos — devem ser levadas muito a sério.


INTUIÇÃO NA INFÂNCIA


Na entrevista Hinton conta como, a partir da conversa com um amigo de adolescência sobre o modo de funcionamento do cérebro, se interessou em como se formam os pensamentos – e passou a vida tentando entender isso.


Nesse caminho, Hinton estudou Fisiologia, passou pela Filosofia e depois pela Psicologia. Sem encontrar respostas satisfatórias, partiu para um caminho então novo: a Inteligência Artificial.


Deixou o Reino Unido rumo nos Estados Unidos em 1972, e ali chegando encontrou um campo de estudos estagnado desde a década de 1950. A comunidade científica da época escolhera construir a “inteligência artificial” por um caminho que não estava levando a progressos: armazenar no computador o máximo possível de regras de funcionamento da realidade, natural e humana.


Hinton então resgata da sua infância a ideia de replicar a arquitetura do cérebro, num formato semelhante ao das redes neurais. Essa ideia havia também sido ventilada entre os estudiosos nos primórdios da pesquisa sobre IA, mas fora abandonada.


Como resumiu Metz, o princípio seria o de que a IA teria que aprender como um ser humano aprende: ao invés de alimentar o computador com um conjunto de regras que descrevem como a realidade funciona, formula-se um algoritmo abstrato, alimentando-o massivamente com dados – a ideia é que, assim como faz um cérebro de uma criança exposta à experiência, o computador eventualmente vai encontrar algum sentido naquilo tudo, inferindo padrões e formulando respostas adequadas para cada tipo de entrada nova.


UMA IDEIA MALUCA


A entrevistadora do Podcast, Sabrina Tavernise, pondera:


“Mas Geoff está abraçando uma ideia que foi amplamente descartada pela maioria da comunidade da IA. Ele tinha qualquer evidência de que essa abordagem iria realmente funcionar?”


Com a palavra, Hinton:


“A única razão para acreditar que poderia funcionar era porque o cérebro funciona. Era também a principal razão para acreditar na existência de alguma esperança de que funcionasse.”


Segundo ele, a proposta foi “amplamente desconsiderada como apenas uma idéia maluca que nunca iria funcionar”.


A GRANDE SACADA DE HINTON


Como sabemos hoje, a “ideia maluca” funcionou. E compreendemos então porque Hinton é tão importante para a história da IA: ele encontrou a comunidade científica num beco sem saída e, acreditando naquele insight, mudou todo o paradigma e abriu uma estrada para o desenvolvimento da tecnologia que hoje mesmeriza a Humanidade.


Quando se mudou para os Estados Unidos, Hinton elaborou um algoritmo que imitava o sistema cerebral num computador: por meio do programa, criou uma rede de neurônios digitais que compartilhavam informação entre si, abrindo caminho para que o computador aprendesse por conta própria.


O SALTO: BACKPROPAGATION


O grande salto de Hinton veio com a chamada retropropagação (backpropagation) aplicada às redes neurais artificiais. A coisa funciona mais ou menos assim:


1. Uma vez formada a rede neural artificial, cada nó entre os neurônios recebe um peso aleatório.

2. Os dados de treinamento são fornecidos à rede neural, e os sinais são propagados pelos neurônios de entrada até os neurônios de saída (isso é a propagação direta). Cada neurônio realiza uma soma ponderada dos sinais recebidos, seguida de uma função de ativação não linear. Imagine, por exemplo, que os dados de entrada sejam fotos de gatos e fotos de outros felinos e os dados de saída sejam classificações como “gato” ou “não gato”.

3. Os erros de classificação cometidos pela rede neural são comparados com o valor esperado, utilizando uma função de custo, como erro quadrático médio (medida de quanto alguns resultados se afastam de uma média esperada).

4. Em seguida, o erro é propagado em sentido contrário pela rede neural (da saída para a entrada), por meio de cálculos apropriados do erro em relação aos pesos aleatórios;

5. Com base nas derivadas parciais calculadas na etapa acima, os pesos das conexões vão sendo ajustados por um algoritmo de otimização, para minimizar os erros da etapa 3.

6. Esse processo pode ser iterado muitas vezes, até que os erros se tornem mínimos.


Nisso está o coração da assustadora evolução da IA nos últimos anos. É como uma “Cama de Procusto” que ajusta o “cérebro eletrônico” até que ele tenha o formato exato para dar as respostas corretas.


RUMO ÀS BIG TECHS


Após publicar o resultado de seus estudos em 2012, Hinton e sua equipe ofereceram seus serviços às Big Techs, que entraram num leilão, vencido pelo Google, com o pagamento de 44 milhões de dólares, além do fornecimento da estrutura necessária para que seguissem na pesquisa e melhoria das redes neurais.


O NOVO INSIGHT


As coisas correram conforme o previsto até o último ano – quando, segundo Hinton, “mudou de ideia” quanto aos riscos oferecidos para a IA. De acordo com o cientista, ele sempre quis entender o cérebro humano. Mas viu no ano de 2022 que o que as máquinas estão fazendo não é um modelo-réplica do cérebro. É algo


Diferente e melhor.”


O que alterou a percepção de Hinton foi o fato de que a IA se tornou um conjunto de milhões de cérebros interligados que compartilham informação e aprendizado simultaneamente e de forma automática:


“Assim, esses agentes digitais, tão logo um deles aprende alguma coisa, todos os outros também sabem. Isso quer dizer que muitas, muitas cópias de um agente digital podem ler a internet inteira em apenas um mês. Nós não conseguimos fazer isso.”


Hinton se encontrou diante de um paradoxo: por um lado, a satisfação intelectual de ver sua pesquisa prosperar e chegar ao ápice. Por outro, numa dimensão e velocidade que nem ele imaginava. E proferiu as palavras que impressionaram o mundo:


Isso é assustador!”


Em maio de 2023 Hinton deixou o Google; segundo ele, só assim ficaria à vontade para falar livremente sobre o horizonte da Humanidade diante dos novos caminhos da IA.


OS TRÊS GRANDES PERIGOS


Hinton não tem grande preocupação com os vieses cognitivos da IA, que geralmente são lembrados como um problema relevante; esses poderão ser, de acordo com ele, resolvidos com relativa facilidade.


Por outro lado, existem três grandes perigos que Hinton teme.


O primeiro deles, já pairando sobre nós, é a desinformação: fake news, deep fake, fake vídeos. A internet será em breve inundada por textos, imagens e vídeos falsos, a tal ponto que a pessoa comum não conseguirá mais saber o que é ou não verdade.


O segundo, num horizonte não tão distante, é a perda de postos de trabalho: se hoje as IAs apenas complementam o trabalho dos humanos, ele teme que à medida em que se tornam mais e mais poderosas, elas efetivamente comecem a eliminar postos de trabalho em grande escala.


O terceiro, um pouco mais distante, mas já dentro de um horizonte de factibilidade, são as armas autônomas. Em primeiro lugar, porque a possibilidade de evitar perdas humanas de soldados tornaria a entrada em guerra com outro país uma opção menos desgastante; em segundo lugar, porque as IAs não estão apenas gerando seus próprios códigos, mas no campo de batalha vão rodá-los em seus próprios dispositivos robóticos – e os comportamentos daí decorrentes são imprevisíveis. A depender da perspectiva humana que absorverem como padrão, podem tender para uma estratégia de tomada gradativa de poder. Isso poderia significar, para Hinton, uma “tomada de poder pelos robôs.”


ANALISANDO OS TRÊS PERIGOS


1. DEEP FAKE – DA DÚVIDA METÓDICA À DÚVIDA INTEGRAL


Numa primeira visada, pode causar uma certa estranheza o porquê da preocupação de Hinton com os fakes como uma questão existencial. Entretanto, no grau de perfeição e espraiamento em que se encontra, a onda fake tem o potencial de distorcer completamente a própria percepção da realidade de milhões, quiçá bilhões, de pessoas.


Recordemos Descartes e suas Meditações Metafísicas (Martins Fontes, 2005), nas quais divide em três etapas o itinerário de sua dúvida metódica: dúvida dos sentidos; argumento dos sonhos; e o gênio maligno.


Dúvida dos sentidos


“Tudo o que recebi até o presente como mais verdadeiro e seguro, aprendi-o dos sentidos ou pelos sentidos; ora, algumas vezes experimentei que tais sentidos eram enganadores, e é de prudência jamais confiar inteiramente naqueles que uma vez nos enganaram.”

CONTUDO,

“... ainda que os sentidos nos enganem algumas vezes no tocante às coisas pouco sensíveis e muito distantes, talvez se encontrem muitas outras, das quais não se pode razoavelmente duvidar, conquanto as conheçamos por meio deles: por exemplo, que estou aqui, sentado perto do fogo, vestido com um roupão, com este papel entre as mãos, e outras coisas dessa natureza. E como é que eu poderia negar que estas mãos e este corpo sejam meus? A não ser, talvez, que me compare com aqueles insensatos cujo cérebro é de tal maneira perturbado e ofuscado...” (p. 31)


Argumento dos sonhos


“Suponhamos então, agora, que estamos adormecidos e que todas estas particularidades, a saber, que abrimos os olhos, que remexemos a cabeça, que estendemos as mãos, e coisas semelhantes, são apenas falsas ilusões ...”

CONTUDO,

“... há que confessar, pelo menos, que as coisas que nos são representadas no sono são como quadros e pinturas, que só podem ser formadas à semelhança de algo real e verdadeiro...” (p. 33)


Argumento do Deus enganador ou gênio maligno


“Todavia, há muito tempo tenho em meu espírito certa opinião de que há um Deus que pode tudo e por quem fui criado e produzido tal como sou. Ora, quem me pode assegurar que esse Deus não tenha feito com que não haja nenhuma terra, nenhum céu, nenhum corpo extenso, nenhuma figura, nenhuma grandeza, nenhum lugar, e que não obstante eu tenha os sentimentos de todas essas coisas, e que tudo isso não me pareça existir de modo diferente do que vejo?”

CONTUDO,

“Mas talvez Deus não tenha querido que eu fosse ludibriado dessa forma, pois diz-se que é soberanamente bom.” (p. 35)



Por fim, chega à conclusão de que não há uma das crenças que outrora recebera como verdadeira da qual não possa agora duvidar...


Sabemos onde levou o caminho da dúvida cartesiana: após colocar toda realidade sob dúvida, somente restou o cogito, “penso”: penso, logo existo.


Num ambiente de fake news e deepfakes induzidos e disseminados em escala planetária por algoritmos, haveria ainda espaço para o ponto de apoio mínimo que restou a Descartes, ou seja, o próprio cogito? Especialmente considerando-se que as máquinas também poderão compartilhar conosco o ato de pensar?


Como anotaram Schmidt, Huttenlocher e Kissinger ("A Era da IA"), "A percepção e a experiência humanas, filtradas pela razão, há muito definem nossa compreensão da realidade." Num ambiente de falsidade absoluta, o ser humano é lançado totalmente fora da realidade, até mesmo quanto a sua interioridade. O horizonte de sentido é completamente heterodeterminado, enquanto o algoritmo age sobre suas instâncias pré-racionais. É o que pensa Han:


“O Big Data e a inteligência artificial levam o regime da informação a um lugar em que é capaz de influenciar nosso comportamento num nível que fica embaixo do limiar da consciência. O regime da informação se apodera das camadas pré-reflexivas, pulsionais, emotivas, do comportamento antepostas às ações conscientes. Sua psicopolítica dado-pulsional intervém em nosso comportamento, sem que fiquemos conscientes dessa intervenção.” (Infocracia - Vozes, 2022 - p. 24)


“Fake news também são, num primeiro momento, informações. Antes de instaurar o processo de verificação, já tiveram todo efeito. Informações ultrapassam num piscar de olhos a verdade e esta não lhes pode alcançar. Está condenada ao fracasso, portanto, a tentativa de, com a verdade, querer lutar contra a infodemia. Esta é resistente à verdade.”(Infocracia - Vozes, 2022 - p. 46)


Se para Descartes a dúvida era apenas o método, com uma IA descontrolada poderíamos ser lançados num ambiente de dúvida total, no qual talvez nos refugiássemos na credulidade como forma de sobrevivência psicológica.


As condições tecnológicas para tal situação já estão dadas. Como destacou o repórter Raphael Hernandes, da Folha de São Paulo, em 1º de julho de 2023,


"Um áudio de uma pessoa lendo metade deste texto é o suficiente para gerar um clone digital de sua voz. Serão menos de cinco minutos de gravação, mais do que o bastante para uma IA (inteligência artificial) imitar sua fala com uma fidelidade capaz de confundir, ao custo de US$ 5 (R$ 25).


Para gerar um vídeo copiando seu rosto, seria necessário filmar essa mesma leitura três vezes. Nesse caso, a imagem precisa ser em, pelo menos, resolução 4k, com boa iluminação." (reportagem completa: https://shre.ink/9B4e)


Hernandes testou um dos aplicativos e disponibilizou um vídeo no link https://www.youtube.com/watch?v=oD5qcyCb_O4. Vale a pena assistir.



ree


Vem à mente, nesse ponto, um termo utilizado na aeronáutica: a desorientação espacial. Trata-se de uma condição onde, em razão da perda de referências visuais do ambiente externo (por neblina, falta de iluminação, etc) o piloto não sabe sua localização, e perde a capacidade de interpretar seus movimentos. Por vezes não consegue notar nem mesmo a sensação de queda. Ele perde a consciência situacional. É mais ou menos o que pode ocorrer com o ser humano num ambiente saturado de informações desconectadas dos fatos.


Daí o perigo detectado por Hinton: num ambiente de fake absoluto induzido pela IA, o ser humano pode ficar em estado de desorientação cognitiva, perdendo totalmente a conexão com a realidade e com os outros seres humanos. Seria, de alguma forma, o fim da realidade como a conhecemos.



ree

Imagem gerada por IA a pedido da Intelletica


2. PERDA DE EMPREGOS


O segundo grande temor de Hinton é a eliminação em massa de empregos. Recorremos inicialmente à ficção científica para refletir sobre a questão.


Na série “The Expanse”, baseada na série literária do mesmo nome, somos lançados a um futuro em que o homem colonizou grande parte do sistema solar.


A Terra é retratada como um lugar superlotado e com uma alta densidade populacional. No século XXIII, a população global ultrapassou 30 bilhões de indivíduos, resultando em escassez de recursos naturais e problemas sociais. A humanidade colonizou Marte, com mais de um bilhão de habitantes, e o Cinturão de Asteróides. A governança do planeta é exercida por uma coalizão chamada Nações Unidas (ONU), que possui autoridade central sobre a Terra. A desigualdade socioeconômica é um tema central na série, com uma divisão acentuada entre os ricos e os pobres.


Devido ao rápido crescimento da população, a disponibilidade de empregos não consegue acompanhar a demanda, resultando em altas taxas de desemprego em várias áreas. Além disso, a automação e a inteligência artificial desempenham um papel significativo na diminuição das oportunidades de trabalho. Muitas atividades manuais e repetitivas são executadas por máquinas e robôs, limitando ainda mais as opções de emprego para os seres humanos.


Na série, é mencionado que existe um sistema de garantia de renda básica universal, assegurando um valor mínimo para garantir a subsistência das pessoas.



ree

A questão poderia ser superada, ao menos em seu aspecto econômico, pela renda básica. Isso seria suficiente para o ser humano?


Podemos ver a questão sob a luz do pensamento de dois gigantes da Filosofia Grega: Platão e seu discípulo Aristóteles.


Para Platão, a única atividade digna da condição humana é a contemplação das Ideias. De um ponto de vista platônico, poderíamos admitir que, uma vez liberados do trabalho físico, e sustentados por uma renda mínima universal, poderíamos chegar à situação ideal para o ser humano.


Para Aristóteles, porém, uma situação assim não seria favorável. Isso porque sua noção de virtude é entrelaçada com a noção de ergon, ἔργον, palavra grega que pode ser traduzida por trabalho, ocupação, mas também por realização, obra, produto, resultado... terra cultivada; função; fato, acontecimento (Dicionário Grego Português, Ateliê Editorial)


De fato, na Ética a Nicômaco Aristóteles conjectura que, se pudéssemos identificar o ERGON do ser humano, poderíamos determinar o que é a felicidade, ou autorrealização (eudaimonia) (1097B/1735). Como discorreu Korsgaard,


“Aristóteles argumenta que se algo tem uma função, seu bem reside em executar bem aquela função. Assim sendo, se seres humanos têm uma função, o bem humano, eudaimonia, será a boa execução daquela função. Examinando as várias atividades ou formas de vida características das entidades viventes, Aristóteles conclui que a função tipicamente humana é “uma vida ativa de acordo com o elemento racional 1098a/1735”. [1]


Não precisamos aqui nos aprofundar no critério do ergon, ou função, e qual seria a mais elevada. Mas a tradição filosófica considera como próprias do homem três atividades: a teórica, a ética e a poiética. Nessa última, a realização do homem enquanto ser de atividade ou de trabalho.


Se a autorrealização do homem passa pela execução de suas funções essenciais, dentre elas a poiética, como poderia o ser humano atingir a felicidade sem o trabalho? A solução de uma renda básica universal não resolveria esse problema, que já bate à porta: na última semana de Junho de 2023,


“A editora Axel Springer anunciou a intenção de cortar 200 vagas de trabalho no tabloide Bild, o mais vendido da Alemanha, e fechar cerca de um terço de seus escritórios regionais em todo o país, como parte de uma transição para a produção digital. Algumas funções poderão se tornar obsoletas com a adoção de inteligência artificial (IA). Como a diagramação da edição imprensa passa a ser padronizada, a maior parte dos postos dos departamentos de produção será em breve eliminada e gradativamente substituída por IA. Grande parte dos cortes afeta também as funções de chefe de redação, editor-chefe, revisor, secretário e redator fotográfico.

Os cortes totalizam cerca de 100 milhões de euros. A intenção do conglomerado Axel Springer seria agilizar workflows e hierarquias e enxugar os níveis de chefia. No fim de fevereiro, seu presidente, Mathias Döpfner, já anunciara uma redução dos quadros tanto do Bild quando do diário Die Welt, sob o lema "Digital only".”[2]


Sob esse aspecto, o segundo risco apontado por Hinton pode ser dilacerante para a Humanidade, em seus âmbitos coletivo e individual.


ree

3. ARMAS AUTÔNOMAS


O terceiro grande risco apontado por Hinton são as armas autônomas (o melhor seria dizer autômatas pois, como destacou Mariah Brochado, https://shre.ink/9brM, , sua autonomia é apenas técnico-funcional, não dispondo a IA de autonomia - autos + nomos, que significa capacidade de se dar as próprias leis).


Nesse tópico, o risco mais evidente é a criação de exércitos de autômatos com enorme poder de fogo e altíssima resistência, podendo levar a duas consequências: primeira, aumentar a já desproporcional distância de força entre as nações mais ricas e a mais pobres; segunda, dado que a perda de vidas humanas ainda é um dos fatores de dissuasão dos conflitos, a possibilidade de colocar robôs no campo de batalha tornaria mais fácil a opção pela guerra.


Entretanto, existe um risco ainda mais grave, decorrente do design de algoritmo necessário para uma arma autônoma efetiva.


Pensemos em um robô aspirador de pó: tudo o que seu algoritmo precisa ter é capacidade de deslocamento, mapeamento de terreno e memória de deslocamento, de forma a cobrir toda a área a ser aspirada. Esse design gerará um algoritmo altamente especializado e previsível nesse campo.


Pensemos agora quais os atributos de Inteligência que uma arma autônoma precisaria ter em seu HD para desempenhar a função da guerra. A situação de combate é plena de acontecimentos imprevisíveis e de alto impacto, que exigem pensamento estratégico, ágil, reação rápida e capacidade de improvisação, com alto foco finalístico – ou seja, busca obstinada dos fins, independente dos meios.


Ocorre que uma tal IA não ficaria restrita ao “corpo” do robô; esse é apenas o hardware. Essa IA, com todas essas capacidades e “índole”, estaria em comunicação global e imediata com todas as outras IAs do planeta. Poderia facilmente sair do controle humano; em verdade, isso não seria surpreendente.


Essa possibilidade faz lembrar a notícia que causou espanto há pouco tempo:


"O Chefe de Testes e Operações de IA da Força Aérea dos Estados Unidos, Coronel Tucker Hamilton, se envolveu em uma polêmica ao afirmar que um drone militar poderia se decidir por matar um operador para cumprir uma missão. No último mês de maio, ele descreveu um cenário onde isso seria possível durante uma conferência em Londres, falando em nome da Aeronáutica de seu país.

No encontro, organizado pela Royal Airspace Society, Hamilton afirmou que uma simulação de operação militar com drones previa que o veículo armado deveria identificar e alvejar uma ameaça — um míssil terra-ar. Nesse cenário, o operador pedia para o equipamento destruir o alvo. Em alguns cenários, no entanto, o operador pedia para o drone não atingir o alvo, mas nesse caso, a máquina perdia pontos por não destruí-lo. O aprendizado de máquina, segundo o oficial, fez a IA entender que seria vantajoso eliminar o operador, já que impedia a missão de ser cumprida diversas vezes. Na simulação, isso teria acontecido e, em resposta, foi ensinado ao drone que não se podia matar o operador."[3]


Posteriormente o militar se retratou; entretanto, não foram dados mais esclarecimento, e uma incômoda dúvida fica até hoje pairando no ar.


De toda forma, as armas autônomas providas de IA já são uma realidade, havendo sistemas sofisticados implementados em drones. Recentemente, os “cachorros-robôs” foram utilizados na china para assegurar a implementação do lockdown: [4]


ree

E em pouco tempo, nos Estados Unidos, já se poderá encomendar um desses cães com um lança-chamas acoplado: o Thermonator, “o primeiro robô cachorro com lança chamas”. E o site anuncia - “Junte-se à fila de espera para receber um email quando esse produto estiver disponível”:


ree

O vídeo impressiona, e pode se encontrado no endereço:



A venda online de uma tal arma remete à realidade de ficção científica da série “Guerra dos Mundos”, de 2019, na qual uma invasão alienígena começa pelo extermínio de quase toda a população humana por alienígenas mecânicos quadrúpedes:


ree

ree

HINTON APONTA PARA ALGUMA SOLUÇÃO?


Hinton não propõe solução para esses riscos; apenas aponta um caminho. Para o padrinho da Inteligência Artificial, além de ser tão perigosa quanto as armas atômicas, a IA é mais difícil de controlar, por sua imaterialidade. A “melhor esperança” seria que os principais cientistas do planeta colaborassem em busca de formas de controlar essa tecnologia.



ENTRE FRANKENSTEIN E OPPENHEIMER


Chegamos então ao final da entrevista, que vale a pena transcrever:


Taberna Sabrina

Então, Cade, você montou um quebra-cabeça bem complicado aqui. Por um lado, existe uma tecnologia que funciona de maneira muito diferente, e talvez muito melhor, do que um de seus principais inventores previu. Mas por outro lado é uma tecnologia que também tem deixado este inventor e outros preocupados com o futuro por causa dessas evoluções tão surpreendentes e repentinas. Você perguntou a Geoff se, olhando para trás, ele teria feito algo diferente?


Cade Metz

Fiz-lhe essa pergunta várias vezes.


Cade Metz

Existe uma parte de você, pelo menos, ou talvez tudo de você que se arrepende do que fez? Quero dizer, você poderia argumentar que é a pessoa mais importante no progresso dessa ideia nos últimos 50 anos. E agora você está dizendo que essa ideia pode ser um problema sério para o planeta.


Geoffrey Hinton

Para nossa espécie.


Cade Metz

Mas, novamente, você se arrepende de seu papel nisso tudo?


Geoffrey Hinton

Então a questão é, olhando para trás 50 anos, eu teria feito algo diferente. Dada a escolha que fiz há 50 anos, acho que foram escolhas razoáveis. Acontece que muito recentemente isso está indo para algum lugar que eu não esperava. E então lamento o fato de estar tão avançado quanto agora, e minha parte nisso. Mas é uma distinção que Bertrand Russell fez entre decisões sábias e decisões afortunadas.


Cade Metz

Ele parafraseou o filósofo britânico Bertrand Russell:


Geoffrey Hinton

Você pode tomar uma decisão sábia que acaba sendo infeliz.


Cade Metz

— dizendo que você pode tomar uma decisão sábia que ainda assim acaba sendo infeliz. E é basicamente assim que ele se sente.


Numa reportagem do próprio Cade Metz, o escritor afirma:


“Dr. Hinton disse que quando as pessoas o perguntavam como ele conseguia trabalhar numa tecnologia potencialmente perigosa, ele parafraseava Robert Oppenheimer, que liderou o esforço estadunidense para construir a bomba atômica: “Quando você enxerga algo que é tecnicamente doce, você vai adiante e faz.’

Ele não diz isso mais.”


Nesse aspecto, é interessante trazer o ponto de vista de Nicholas Harrington no artigo “Frankenstein de Geoffrey Hinton”:


“Como posso descrever minhas emoções nesta catástrofe, ou como delinear o miserável que com tantas dores e cuidados infinitos eu me esforcei para formar? Para isso, eu havia me privado do descanso e da saúde. Eu o desejava com um ardor que excedia em muito a moderação; mas agora que terminei, a beleza do sonho desapareceu, e o horror e a repulsa sem fôlego encheram meu coração." – Frankenstein , Mary Shelley 1816

Apesar do clichê, Geoffrey Hinton é muito parecido com o Frankenstein de Mary Shelley. Hinton dedicou sua carreira a infundir sistemas de computador com a vida humana, apenas para descobrir que, uma vez que alcançou sua magnum opus, ficou horrorizado com sua criação.”[5]


No fim das contas, o grande medo de Hinton é que nos deparemos com uma situação antecipada por Kubrick em 2001: Uma odisséia no espaço, protagonizada por HAL 9000, o computador algorítmico heuristicamente programado, avançada inteligência artificial responsável pelo funcionamento da nave especial Discovery:


- Abra as portas do compartimento das cápsulas, Hal.

- Sinto muito, Dave. Receio não poder fazer isso. Esta missão é importante demais para permitir que você a comprometa. Sei que você e Frank planejavam me desconectar.

- De onde diabos você tirou essa ideia, HAL?

- Dave, embora você tenha tomado todas as precauções no casulo para que eu não o ouça, pude ver seus lábios se moverem.


Quando Oppenheimer se disse arrependido de ter participado da criação das armas atômicas, John von Neumann teria caçoado: algumas vezes as pessoas confessam publicamente para ficar com créditos do pecado.

É sempre difícil interpretar os arrependimentos...


Da redação da Intelletica para a infosfera, em junho do ano de 2023.



ree

Imagens geradas por IA em resposta ao pedido de Intelletica: "Imagine Geoffrey Hinton e Frankenstein"



[1]AristotleonFunctionandVirtue Christine M. Korsgaard HistoryofPhilosophyQuarterly Vol. 3, No. 3 (Jul., 1986), pp. 259-279 (21 pages) PublishedBy: Universityof Illinois Press [2]https://www.dw.com/pt-br/tabloide-alem%C3%A3o-substituir%C3%A1-profissionais-por-intelig%C3%AAncia-artificial/a-65992555 [3]https://canaltech.com.br/inovacao/drone-poderia-matar-proprio-operador-para-cumprir-missao-por-ordem-de-ia-251716/ [4]https://g1.globo.com/mundo/noticia/2022/03/31/cachorros-robos-anunciam-lockdown-em-ruas-da-china-veja-video.ghtml

[5]https://projectqsydney.com/geoffrey-hintons-frankenstein/


Comentários


bottom of page