Em uma entrevista para a "Wired Magazine", o historiador e escritor Yuval Harari alertou para o perigo da humanidade em pouco tempo se tornar “irrelevante” e “redundante” diante dos avanços da Inteligência Artificial. Dessa vez, não mais através das distopias como a do computador HAL 9000 que tenta matar a tripulação de uma nave no filme “2001” ou por replicantes que perseguem um policial no filme “Blade Runner”. Mas agora por meio dos aplicativos e algoritmos que “compreendem melhor nossos desejos e sentimentos do que nós mesmos”. Porém, o discurso de Harari atira no que vê e acerta no que não vê – só podemos achar que os algoritmos são realmente inteligentes se o próprio homem rebaixar ou tornar mais flexível o conceito de “inteligência”. A fala de Harari faz parte de uma nova narrativa publicitária das corporações tecnológicas: projetar para o futuro distopias que sempre fascinaram a humanidade por toda a História: ver a si própria substituída por duplos tecnológicos como reflexos em espelhos, fotografias, frankensteins, golens, robôs, replicantes e, agora, aplicativos.



Os anos 1990 foi a década da popularização da Internet, de livros didáticos como A Vida Digital do cientista Nicholas Negroponte que tentava esclarecer para os mortais como a passagem do átomo para o bit revolucionaria a cultura e a economia, e do messianismo empresarial de Bill Gates com o livro A Estrada do Futuroprevendo revoluções na educação e nos negócios com as redes multimídia.


Mas também foram anos das distopias que viam com desconfiança essa hegemonia digital: cyberpunks e tecnocríticos herdeiros das visões do livroNecromance de William Gibson nos anos 1980, cujo auge foi a trilogia Matrix – um pesadelo gnóstico na qual as máquinas transformaram a realidade em um deserto e os homens prisioneiros em uma realidade virtual, enquanto seus corpos têm a energia drenada pelas máquinas para manter a Matrix.


Utopia e messianismo, até aqui, sempre foi a narrativa pela qual as corporações como Microsoft, Apple ou Oracle vendiam o futuro para os usuários. Mas as coisas estão mudando: no lugar está surgindo uma estranha distopia (um estilo apropriado dos tecno-críticos do passado) na qual autoabdicação humana e messianismo religioso se misturam. O que resulta numa espécie de tecno realismo amargo sobre um futuro inevitável onde nos tornamos dependentes da tecnologia.


E por que? Porque os algoritmos se tornaram mais inteligentes do que nós. O homem deixou de ser o “mais sofisticado sistema de processamento de dados do Universo”, substituído por “algoritmos externos” em máquinas e aplicativos.


Essa é a visão de Yuval Harari em seu livro Homo Deus: A Brief History of Tomorrow (“Homo Deus: Uma Breve História do Amanhã”) – para Harari, o homem estaria prestes a se tornar irrelevante. Mas o mundo melhorará. E por que? Porque o fator humano será eliminando com a Inteligência Artificial – carros automáticos e médicos de IA, por exemplo.


A entrevista abaixo foi concedida por Yuval Harari à Wired Magazine. Nas palavras de Harari podemos facilmente encontrar os elementos da nova religião promocional atual: a da autoabdicação humana (o rebaixamento da noção de inteligência, permitindo-nos humanizar máquinas e aplicativos), um dos aspectos do tecnognosticismo contemporâneo. Dessa vez, por trás da cultura dos aplicativos, redes sociais e smartphones.


Vamos à entrevista e depois esse humilde blogueiro irá tecer alguns breves comentários.



Yuval Harari

A Humanidade está próxima de se tornar irrelevante
Olivia Solon (Wired Magazine, 21/02/2017)


WIRED: Em seu livro, você prediz o surgimento de duas religiões completamente novas. Quais são elas?


HARARI: Tecno-humanismo almeja amplificar o poder dos humanos, criando ciborgues e conectando os humanos aos computadores, mas isto ainda vê os interesses e desejos humanos como sendo a mais alta autoridade no Universo.
Dataismo é um novo sistema ético que diz, sim, humanos eram especiais e importantes, porque até agora eles eram os sistemas de processamento de dados mais sofisticados do Universo, mas este não é mais o caso. O ponto da virada é quando você tem um algoritmo externo que compreende você – seus sentimentos, emoções, escolhas, desejos – melhor do que você mesmo os entende. Esse é o ponto quando há uma mudança que torna os humanos redundantes.


WIRED: Como assim?


HARARI: Tome por exemplo o Google Maps ou o Waze. Por um lado eles amplificam a habilidade humana – você é capaz de alcançar seu destino mais rapidamente e com mais facilidade. Mas ao mesmo tempo, você está mudando a autoridade para o algoritmo, e perdendo sua habilidade de encontrar seu próprio caminho.


WIRED: O que isto significa para o Homo sapiens?


HARARI: Tornamo-nos menos importantes, talvez irrelevantes. Na era humanista, o valor de uma experiência veio de dentro de você mesmo. Na era Dataista, o significado é gerado pelo sistema externo de processamento de dados. Você vai a um restaurante japonês e pede um prato maravilhoso, e a coisa a ser feita é tirar uma foto com seu celular, colocá-la no Facebook, e ver quantas curtidas consegue. Se você não compartilha suas experiências, elas não se tornam parte do sistema de processamento de dados, e elas não têm significado.


WIRED: A mudança para o Dataismo importa para a política?


HARARI: No Século XX, a politica era o campo de batalha entre as grandes visões sobre o futuro da humanidade. As visões eram baseadas na Revolução Industrial e a grande questão era o que fazer com novas tecnologias como a eletricidade, os trens e o rádio. Seja lá o que for que você diz sobre personagens como Lenin e Hitler, você não pode acusá-los de falta de visão. Hoje, ninguém na política tem qualquer tipo de visão; a tecnologia está se movendo rápida demais e o sistema político é incapaz de fazer sentido disso.


WIRED: Quem pode fazer sentido disso?


HARARI: O único lugar que você escuta visões amplas sobre o futuro da humanidade é no Vale do Silício, de Elon Musk, Mark Zuckerberg. Pouquíssimas pessoas têm visões competitivas. O sistema política não está fazendo seu trabalho.







WIRED: Então, as empresa tecnológicas se tornam os novos imperadores, até mesmo deuses?


HARARI: Quando você fala sobre Deus e religião, no final é uma questão de autoridade. Qual é a mais alta fonte de autoridade que você procura quando tem um problema na sua vida? Mil anos atrás você procuraria a igreja. Hoje, esperamos que os algoritmos nos forneçam a resposta – com quem ter um encontro, onde viver, como lidar com um problema econômico. Assim, mais e mais autoridade está indo para estas corporações.


WIRED: Temos a opção de sair disso?


HARARI: A resposta mais simples é não. Será muito difícil puxar a tomada, e isto tem a ver com o cuidado com a saúde, que cada vez mais depende de sensores conectados à Internet. As pessoas estão dispostas a desistir de suas privacidades em troca dos serviços médicos, os quais dizem a você o primeiro dia que as células cancerígenas começam a se espalhar pelo seu corpo. Assim, poderemos alcançar um ponto quando será impossível desconectar.


WIRED: Sobre o que podermos ser esperançosos?


HARARI: Há muitas coisas para sermos esperançosos. Em 20 a 30 anos centenas de milhões de pessoas que não têm acesso aos cuidados de saúde terão acesso aos médicos de IA (Inteligência Artificial) em seus smartphones, oferecendo um melhor serviço que qualquer um recebe agora. Carros sem motoristas não irão eliminar os acidentes, mas eles irão reduzi-los drasticamente.


WIRED: Puxa… então não estamos condenados?


HARARI: A humanidade provou sua habilidade de se elevar para encarar os desafios apresentados pelas novas tecnologias – nas décadas de 50 e 60, muitas pessoas esperavam que a Guerra Fria terminasse com um holocausto nuclear. Isso não aconteceu. Após milhares de anos nos quais a guerra parecia ser uma parte inevitável da natureza humana, mudamos a forma com que as políticas internacionais funcionavam. Espero que também sejamos capazes de encararmos os desafios das tecnologias como a IA e a engenharia genética, mas não temos espaço para o erro.


A religião da autoabdicação humana


O problemas de discursos como esse de Yuval Harari é que, no fundo, não passa de uma forma de propaganda que nos induz a acreditar que algoritmos, aplicativos etc. são, de fato, ferramentas realmente inteligentes. Para acreditarmos nisso, temos que obrigatoriamente reduzir os nossos padrões de inteligência humana – o exercício diário de tratar máquinas ou aplicativos, como por exemplo Waze ou Google Maps, como formas de inteligência reais. O que resulta num senso de realidade mais flexível.



Jaron Lanier



Para o cientista computacional e design de softwares Jaron Lanier, essa inversão é a base de uma religião que está sendo gestada nesse momento no Vale do Silício: a religião da auto-abdicação humana – computadores se humanizam, enquanto humanos se tornam “processadores de informação” rebaixando os padrões do que entendemos como inteligência – sobre isso clique aqui.


Harari acredita que o ser humano pode se tornar “redundante” ou “irrelevante” porque os algoritmos se tornaram “inteligentes”. Com esse discurso, Harari perde de vista que ele próprio faz parte de uma narrativa promocional criada pelas corporações para rebaixar ou tornar mais flexível a noção de “inteligência” – acreditamos que os algoritmos “ampliam nossas habilidades”. E, por isso, nos ameaçaria de obsolescência ao substituir a autoridade humana.


Enquanto isso, aplicativos como Waze produzem acidentes no trânsito, algoritmos do sistema financeiro criam ameaças de crises sistêmicas por decisões de compra e venda em série equivocadas e as redes sociais rebaixam a noção de “amizade” através da popularização dos conceitos como “likes”, “seguidores”, “compartilhamentos” ou reações a postagens por meio de “emoticons”.


Isso sem falar nos aplicativos de relacionamentos que reduzem as relações afetivas à probabilidade estatística.


Harari fala que os algoritmos externos compreendem melhor nossos desejos e emoções. É exatamente o inverso: por rebaixarmos o conhecimento de nós mesmos, humanizamos (ou antromorfizamos) os aplicativos ao ponto de acreditarmos que eles “nos conhecem”.



Filme "Ela", 2013





O filme Ela (Her, 2013) é um ótimo exemplo dessa inversão absurda. No filme vemos um protagonista solitário que se apaixona por um sistema operacional chamado Samantha, dotado de uma voz sensual e sedutora. Para ele, cada vez mais o sistema parece ser uma pessoa dotada de sentimentos reais – sobre o filme clique aqui.


O problema é que o protagonista possui tão baixa auto-estima que, por isso, rebaixou suas expectativas em relação ao amor e relacionamentos. A máquina não é inteligente: é o homem que rebaixou a si próprio.


Por isso, o discurso de Yuval Harari, na entrevista da verdadeira bíblia do Vale do Silício que é a revista Wired, é a mais nova tática publicitária das corporações tecnológicas: vender os aplicativos através do mito da inteligência artificial e da autoridade algorítmica.


É o fascínio arquetípico que sempre acompanhou a história da humanidade: ver a si própria substituída por duplos tecnológicos: reflexos em espelhos, fotografias, frankensteins, golens, robôs, replicantes e, agora, aplicativos.



Cinema Secreto: Cinegnose
Axact

Ronaldo

Blogueiro e livreiro, reproduzo as notícias que considero interessante para os amigos e disponíbilizo meu acervo de livros para possíveis clientes. Boa leitura e boas compras.

Poste aqui o seu comentário:

0 comments:

-Os comentários reproduzidos não refletem necessariamente a linha editorial do blog
-São impublicáveis acusações de carácter criminal, insultos, linguagem grosseira ou difamatória, violações da vida privada, incitações ao ódio ou à violência, ou que preconizem violações dos direitos humanos;
-São intoleráveis comentários racistas, xenófobos, sexistas, obscenos, homofóbicos, assim como comentários de tom extremista, violento ou de qualquer forma ofensivo em questões de etnia, nacionalidade, identidade, religião, filiação política ou partidária, clube, idade, género, preferências sexuais, incapacidade ou doença;
-É inaceitável conteúdo comercial, publicitário (Compre Bicicletas ZZZ), partidário ou propagandístico (Vota Partido XXX!);
-Os comentários não podem incluir moradas, endereços de e-mail ou números de telefone;
-Não são permitidos comentários repetidos, quer estes sejam escritos no mesmo artigo ou em artigos diferentes;
-Os comentários devem visar o tema do artigo em que são submetidos. Os comentários “fora de tópico” não serão publicados;