sábado, 28 de setembro de 2019

A quarta revolução industrial irá alterar radicalmente a forma como vivemos e trabalhamos




“Dave, pare. Pare, sim? Pare, Dave, pode parar, Dave?” Suplica o supercomputador HAL ao implacável astronauta Dave Bowman, numa famosa cena, pungente e insólita, perto do final de ‘2001, uma odisseia no espaço’, de Stanley Kubrick. Bowman, que quase havia sido lançado à morte no espaço profundo pela máquina defeituosa, está calma e friamente desconectando os circuitos de memória que controlam o seu cérebro artificial. “Dave, a minha mente está a desaparecer”, diz HAL, desanimado. “Eu posso sentir. Eu posso sentir.”
Eu também posso sentir. Nos últimos poucos anos tenho tido um sentimento desconfortável de que alguém, ou algo, tem estado a mexer no meu cérebro, remapeando os circuitos neurais, reprogramando a memória. A minha mente não está a desaparecer — pelo menos que eu saiba —, mas está a mudar. Não estou a pensar do mesmo modo que costumava pensar. Sinto mais agudamente quando estou lendo. Eu costumava mergulhar num livro ou um artigo extenso. A minha mente era capturada pelas reviravoltas da narrativa ou pelas mudanças do argumento, e eu passava horas percorrendo longos trechos de prosa. Agora, raramente isso acontece. A minha concentração começa a dispersar depois de uma ou duas páginas. Fico inquieto, perco o fio à meada, ando à procura de outras coisas para fazer. Sinto como se estivesse a arrastar o meu cérebro volúvel de volta ao texto. A leitura profunda que costumava acontecer, naturalmente tornou-se uma batalha.

Tecnologia de informação genética: engenharia digital = Tecnologia da Vida

A descodificação genética, seguida de reprogramação para fins mais ou menos nobres, como a sua aplicação à terapia genética e prevenção em larga escala, é mais uma das amplificações da mente humana. Para todos os efeitos, o que a humanidade já faz com as leveduras há mais de oito mil anos, não é mais nem menos do que biotecnologia. Em todo o caso, tivemos que esperar pelo ano de 1953, data em que foi descoberta a estrutura básica da vida: ADN. Para falarmos de biotecnologia a sério, ainda que a engenharia genética tenha surgido por volta de 1973, altura em que Stanley Cohen, da Universidade de Stanford, e Herbert Boyer, da Universidade da Califórnia em São Francisco, inventaram a clonagem genética.

O desenvolvimento da engenharia genética é, pois, uma tecnologia revolucionária. É tecnologia porque utiliza o conhecimento científico para especificar as vias de fazer coisas de uma forma reprodutível, descodificando, manipulando, e consequentemente reprogramando os códigos de informação da matéria viva, através das aplicações da engenharia informática numa linguagem digital.

Mas os investigadores depararam-se com um problema: o de colocar no gene modificado uma instrução que lhe permita corrigir o gene defeituoso no local correto do corpo. Com a utilização de vírus ou cromossomas artificiais, a taxa de sucesso foi muito baixa. Foram então usadas outras ferramentas, inicialmente no campo da oncologia, com lipossomas especificamente desenhados para conduzir os genes aos alvos tumorais desejados. Mas isso ainda não chega porque os próprios órgãos de um organismo complexo, como o nosso, adaptam-se aos diferentes ambientes modificando algumas das suas funções que previamente estavam programadas pelos genes. A complexidade da interação biológica continua a desafiar o engenho humano limitado por conceitos como, por exemplo: alvo e mensageiro.

A terceira revolução industrial

William Hewlett e David Packard, pertencem à terceira revolução digital. Criaram uma empresa de eletrónica em 1939, pouco antes da guerra que iria trazer prosperidade a empresas do ramo da eletrónica. Foi só em 1951 que o visionário diretor da Faculdade de Engenharia da Universidade de Stanford, Frederick Terman, criou a instalação do Parque Industrial de Stanford. E Hewlett e Packard foram os seus primeiros inquilinos. Rapidamente se tornou um local muito procurado. Assim, as rendas passaram a ser tão altas que somente as empresas inovadoras poderiam pagar. E isso era um privilégio de poucos.



Apesar das rendas incomportáveis, o Parque Industrial ficou com a lotação esgotada em pouco tempo. Novas empresas de eletrónica não tiveram outro remédio senão instalarem-se ao longo da autoestrada 101, de Stanford até San Jose. E foi assim que surgiu Silicon Valley, 48 Km a sul de São Francisco, numa localização improvável, uma área tipicamente rural que em pouco tempo se transformou num charmoso coração de inovações eletrónicas. Em meados dos anos 70, Silicon Valley já tinha atraído dezenas de milhares de jovens de toda a parte do mundo, das quais emergiram as mentes mais brilhantes que ainda hoje nos encandeiam. O exemplo mais flagrante do virtuosismo dos efeitos colaterais. Colateral de quê? Bem, neste caso, da Segunda Guerra Mundial, e da lotação esgotada do espaço de um parque industrial com sucesso.

A quarta revolução industrial



Schwab argumenta que esta revolução difere em escala, alcance e complexidade de qualquer uma das anteriores. Novas tecnologias estão a unificar tudo e a projetar-nos para um novo paradigma humano. Desde os supercomputadores aos drones, da impressão 3D ao sequenciamento de ADN com clones humanos, à nanotecnologia, já estão por aí, 200 vezes mais fortes que o aço e um milhão de vezes mais finos do que um fio de cabelo. A quarta revolução industrial, diz Schwab, é mais importante, e as suas ramificações são mais profundas, do que qualquer outro período da história humana.

Como aproveitar estas mudanças e moldar um futuro melhor, sem perder o controlo da situação? Irá o novo “homem” respeitar os limites morais e éticos, em vez de ultrapassá-los? Quando Clara Santa Maria usou o capacete da atenção para silenciar as vozes em sua cabeça, não só se tornou muito mais perspicaz, como também se sentiu muito melhor consigo mesma.

Independentemente das opiniões que possamos ter, de uma perspetiva histórica está claro que algo de importante está a acontecer. Se as pessoas puderem planear e reconfigurar as próprias vontades, não mais poderemos considerar que existe um “eu” autêntico em quem confiar e respeitar a autoridade. Quase todos os dias “os Media” noticiam aquela novidade esfarrapada esperançosa acerca da cura do cancro. Agora chegou a vez dos cientistas cognitivos da Inteligência Artificial virem anunciar que os algoritmos da aprendizagem automática prometem isso. Só não sabem quando. Este é um caso de dedução inversa, que remete para o problema da indução de David Hume: como podemos alguma vez justificar a generalização daquilo que vimos àquilo que não vimos? Num certo sentido, todos os algoritmos de aprendizagem são uma tentativa de resposta a esta pergunta.  Parafraseando Ray Kurzweil, enquanto não encontrarmos a exceção, que está para breve, presumimos que todos os seres humanos são mortais.

Começando pelo princípio, o que qualquer célula viva faz é sintetizar proteínas. E de acordo com o paradigma ainda em vigor, são os genes que encetam tal função. Por analogia, uma célula é como um pequeno computador, e o seu programa é o genoma (uma sequência de genes escritos em código ADN), que de vez em quando sofre bugs. O programa da célula é suscetível de bugs na forma de mutações dos genes. A maior parte das vezes estas mutações levam à morte da célula, mas por vezes a célula começa a crescer e a dividir-se descontroladamente. Quanto mais tempo durar o cancro, mais mutações terá. Daqui se deduz que para curar o cancro era preciso conhecer o genoma de milhares de células, e obter um medicamento que fosse eficaz em relação a todas as células mutantes sem prejudicar as outras células. Ora, isto é uma tarefa hercúlea à escala humana. E é aqui que entram em ação os algoritmos de aprendizagem automática.

Hoje fazem-se anúncios publicitários de operadoras de telecomunicações colocando um humano e um robô a interagirem (sketch de marketing). Isto ilustra o problema da relação entre dois tipos de mente: a mente de um ser vivo criador, com consciência e neurónios espelho para a empatia, e a mente de um artefacto que é a sua criatura. Este é o mesmo problema que Thomas Nagel e David Chalmers debateram há 30 anos acerca do “problema difícil da consciência”.

Um aspeto que os cognitivistas mais duros, até pelo menos os anos 1980, não quiseram perceber, foi o facto de que a própria origem da visão cognitivista estava radicada na cultura; de que as propriedades cognitivas da computação não pertencem ao indivíduo, mas à pessoa inserida no seu meio sociocultural. A computação não passava de um sistema de símbolos físico resultante de uma sofisticada atividade humana. Portanto, toda essa atividade não fica confinada ao interior de uma caixa craniana, mas estende-se ao meio. A verdadeira computação humana nunca se pode reduzir às propriedades cognitivas de um indivíduo a conceptualizar computação em abstrato, porque é também uma atividade sociocultural. Foi esse o erro mais importante cometido pelos cognitivistas que continuaram a resistir a este tipo de análise crítica, porque estavam demasiadamente agarrados a uma metáfora que equiparava a mente a um computador dentro da cabeça.

Sem comentários:

Enviar um comentário