O fim está próximo?

Cosmólogo do MIT defende 'linha moral' para inteligência artificial -  Jornal O Globo
(Max Tegmark)

A indiferença é o contrário da curiosidade.

Plutarco conta que Júlio Cesar teria salvo a sua vida se ao dirigir-se ao Senado, no dia em que foi morto, tivesse lido um papel que lhe apresentaram.

Estamos sendo avisados, de várias formas, da nossa futura (e breve) extinção? Ou, essas são, apenas, mais uma onda apocalíptica, que ciclicamente nos assola?

Robert Orben diz que “inteligência é quando você acredita somente em metade do que ouve. Brilhantismo é quando você sabe em qual metade acreditar.”

Sabemos qual é a metade certa ou, acreditamos em tudo?

Nick Bostrom, ao falar sobre a Superinteligência, argumenta que essa “teria grande possibilidade de obter uma vantagem estratégica decisiva. Seus objetivos, então, determinariam como o domínio cósmico da humanidade seria utilizado. Podemos agora começar a visualizar quão ameaçadora é essa perspectiva.”

A Superinteligência, lembrando, seria formada por cérebros artificiais capazes de superar o cérebro humano em inteligência geral.

Os investimentos sobre segurança e impactos da AI, entretanto, ficam muito aquém dos feitos no desenvolvimento das próprias máquinas mais inteligentes.

Apesar disso, alguns pesquisadores de AI acham que a “opinião pública está começando a sair do controle”. Dizem que há um “alarmismo equivocado”! Eles não vêem que a ética está sempre à reboque.

Em 1994, Philip Agre previu que a coleta massiva de dados na sociedade se transformaria num complexo industrial de dados, sem fronteiras e praticamente sem leis.

Segundo Reed Albergotti, Agre foi além: “disse que haveria um mau uso autoritarista da tecnologia de reconhecimento facial, antecipou nossa incapacidade de resistir à desinformação e pressupôs que a AI seria empregada para usos sombrios, caso não fosse submetida a questionamentos morais e filosóficos”.

Naquela época, poucos tinham acesso à internet, PC ou e-mail! Agre resolveu, anos depois, abandonar tudo e viver recluso.

Mas, não são apenas essas “criaturas” que nos ameaçam. Há uma coleção de cenários escatológicos em áreas como climatologia, ecologia, epidemiologia, biologia, política radical, nanotecnologia molecular, geoengenharia estratosférica …

“Não haverá mais tempo! Pelo contrário, nos dias em que se ouvir o sétimo Anjo, quando tocar a trombeta, então o mistério de Deus estará consumado, conforme anunciou aos seus servos, os profetas.” (Apocalipse, 10:7)

Há várias situações que são ou poderão se tornar catastróficas: incêndios florestais, inundações devastadoras, secas mais rigorosas e frequentes, perda de biodiversidade, a pandemia da COVID-19 (que pode ser uma precursora; e, a biologia sintética logo permitirá que se projetem patógenos mais letais e contagiosos que os já conhecidos), a esquecida ameaça nuclear, ganância financeira extremada (com níveis quase incontroláveis de desigualdade, que deixam milhões na fome e na desesperança) etc.

Noam Chomsky acredita que o risco de aniquilação é atualmente “sem precedentes na história do Homo sapiens“. E, Max Tegmark (autor de “Vida 3.0”) afirma que “provavelmente vai acontecer dentro de nossas vidas … que nós iremos nos autodestruir ou, começar a agir juntos”. Tegmark se preocupa com o uso da AI, em como podemos aumentar nossa prosperidade sem deixar as pessoas desprovidas de renda ou de propósito. Um dos poucos.

“Quão moralmente ruim (ou bom) seria nosso desaparecimento e por quais motivos? 

Seria errado impedir que gerações futuras passassem a existir? 

O valor dos sacrifícios, lutas e esforços do passado depende de a humanidade continuar a existir enquanto a Terra, ou o Universo em geral, permanecer habitável?” pergunta-se Phil Torres.

Surgiu uma nova visão moral chamada “longtermism“, que estuda como nossas ações afetam a longo prazo o universo – milhares, milhões, bilhões e até mesmo trilhões de anos a partir de agora. Um dos seus mentores é o filósofo Toby Ord.

É uma abordagem que parece “boa”, mas pode ser muito perigosa.

O “longtermism” não se preocupa de fato com o longo prazo ou em “valorizar o bem-estar das gerações futuras”. A preocupação é com o potencial que se perderia – que não se realizaria por causa de uma “extinção”.

“Imagine uma catástrofe que reduzisse a população humana a zero. Ela seria trágica por causa de todo o sofrimento que infligiria aos vivos naquele momento. 

Esta é a primeira tragédia, uma tragédia pessoal para os diretamente afetados. 

Mas há, argumentam os longtermistas, uma segunda tragédia que é astronomicamente pior do que a primeira, decorrente do fato de que nossa extinção encerraria permanentemente o que poderia ser um futuro extremamente longo e próspero.

Isso destruiria irreversivelmente o ‘vasto e glorioso potencial de longo prazo da humanidade’, na linguagem quase religiosa de Ord – um ‘potencial’ tão grande, dado o tamanho do Universo e o tempo que falta para atingir o equilíbrio termodinâmico, que a nossa aniquilação física seria totalmente pálida em comparação à tragédia da nosso potencial perdido.” (Phil Torres)

Nossa extinção seria vista como um “tropeço” da humanidade.

Estamos em boas mãos!

Publicado por Dorgival Soares

Administrador de empresas, especializado em reestruturação e recuperação de negócios. Minha formação é centrada em finanças, mas atuo com foco nas pessoas.

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

%d blogueiros gostam disto: