terça-feira, 31 de dezembro de 2019

Interpretação e hermenêutica


A hermenêutica nasceu como esforço no campo das disciplinas ditas humanísticas no sentido de melhor se descrever o modo como podíamos interpretar uma obra de arte, atendendo à sua especificidade histórica e humanística. Estava-se num tempo, o tempo do positivismo, em que as ciências ditas da natureza começavam a intrometer-se também com  a sua metodologia no campo das ciências sociais e humanas. Ao contrário do que se passa de um modo geral nas artes, as ciências da natureza, com a sua linguagem simbólica evoluída, têm como alvo os objetos silenciosos e naturais. Uma obra literária não é um objeto que compreendemos através da conceptualização ou da análise. É uma voz que devemos ouvir. É um fenómeno de compreensão. E a compreensão é simultaneamente epistemológica e ontológica. A compreensão literária - nos termos do vocabulário de Heidegger - tem a ver com o nosso próprio ser-no-mundo. A acentuação do contraste entre uma compreensão científica, e aquilo a que chamamos uma compreensão histórica e hermenêutica, torna mais claro o caráter distinto da tarefa interpretativa nas humanidades.


Assim, compreender uma obra literária não é uma espécie de conhecimento científico que foge da existência para um mundo de conceitos. É um encontro histórico que apela para a experiência pessoal. E a experiência pessoal passa primeiro por estar no mundo. A hermenêutica é o estudo deste último tipo de conhecimento. Enquanto corrente de pensamento alemão, a hermenêutica acabou por ser profundamente influenciada pela fenomenologia alemã e pelo existencialismo francês. A hermenêutica, enquanto se define como estudo da compreensão das obras humanas, transcende as formas linguísticas de interpretação. Os seus princípios aplicam-se não apenas à literatura, mas também a quaisquer obras de arte. Ao fim e ao cabo, pode dizer-se, que a hermenêutica se aplica ao estudo de todas as disciplinas humanísticas.

A partir da década de 1960, e que se prolongou até ao fim da década de 1980, a hermenêutica colocou-se, sobretudo na Alemanha e na França, no centro de um campo, à volta do qual circulavam três disciplinas humanísticas: a teologia; a filosofia; e interpretação literária. Portanto, a hermenêutica é um desenvolvimento que surgiu sobretudo no seio da tradição do pensamento alemão, que se estendeu à França, mas que não vingou nos círculos de língua inglesa, tanto no Reino Unido como na América, se excluirmos o epifenómeno dos anos 60 centrado em Berkeley.

Na teoria hermenêutica alemã, podemos encontrar as bases filosóficas para o conhecimento radicalmente mais amplo dos problemas da interpretação e da compreensão, que têm a ver com o movimento da Fenomenologia iniciado por Husserl. Outros nomes que lhe sucederam deixo aqui os de maior envergadura: Dilthey, Heidegger, Hans-George Gadamer. Efetivamente, no âmbito da hermenêutica contemporânea da linguagem, avultam os escritos de Hans-Georg Gadamer. Embora os estudos de Heidegger tenham sido a pedra basilar de uma nova conceção filosófica contemporânea, os estudos de Gadamer foram importantes no que diz respeito à noção de interpretação e de compreensão. É a partir do próprio horizonte de interpretação que o homem constrói o seu conhecimento. Esta forma ontológica, patente na hermenêutica de Gadamer, permite-nos ver a relevância da experiência construtiva do homem para o qual todo o conhecimento é uma constante interpretação e, sobretudo, um conhecimento de si mesmo.

A fenomenologia é uma orientação do pensamento europeu que submeteu as conceções realistas da perceção e da interpretação a uma crítica radical. E isto é importante perceber, se lembrarmos que a Fenomenologia pôs em causa os fundamentos em que assentava o nosso paradigma científico. Um estudo da fenomenologia torna especialmente visível a semelhança essencial entre o realismo e a perspetiva científica. A ciência não se podia eximir ao pensamento crítico. O pensamento crítico, para aconselhar a ciência a fazer a sua própria crítica, no sentido kantiano, tinha obviamente de se posicionar do lado de fora, e não de dentro de si própria. Porque o que tinha ocorrido com o positivismo lógico, foi precisamente um caminho no sentido contrário: inclusivamente a crítica literária subordinar-se a critérios da ciência dura, ou seja, cada vez mais tecnológica.

A hermenêutica implica dois polos de atenção diferentes, mas que interatuam entre si: a compreensão do texto; e a questão mais abrangente que tem a ver com a compreensão e a interpretação. É de realçar que a palavra “interpretação” pode entrar em proposições cujo conceito varia conforme quem a utiliza, ou o contexto em que é aplicada. Por exemplo, o cientista chama “interpretação” à análise que faz dos dados; o crítico literário chama “interpretação” à análise que faz de uma obra; o tradutor de uma língua estrangeira é o intérprete; um intérprete das notícias é um comentador jornalístico. Se quisermos ser rigorosos podemos dizer que estamos sempre a interpretar, o dia todo. A interpretação é talvez o ato essencial do pensamento humano. Como não faz sentido falar em pensamento humano sem a nossa linguagem, assim, qualquer teoria sobre interpretação humana tem que lidar com o fenómeno da linguagem. A linguagem molda a visão que o homem tem do mundo, ou da realidade, e o seu comportamento no qual está incluído o pensamento em simultâneo com a conceção que tem de si próprio e do seu mundo interior. 


Vivendo-se no positivismo, com uma conceção de compreensão alicerçada num esquema de sujeito-objeto, Heidegger com o seu tratado "Ser e Tempo", rasgou esse paradigma com o seu caráter ontológico. Heidegger envereda por uma abordagem que é eminentemente fenomenológica, para chegar ao "ser-aí", um estar-no-mundo que é em si mesmo compreensão. Assim, compreensão é o meio pelo qual o mundo se coloca com o homem fazendo parte dele, e não independente dele. A compreensão é o meio de revelação ontológica. Portanto, a compreensão não é uma apetência humana, assim como é a consciência humana, mas sim o meio no qual existimos. Não pode ser objetificada. A compreensão é o meio onde se dá a objetificação. Um ser humano não pode avaliar a compreensão colocando-se fora dela, porque precisa dela. Ou melhor, porque é ela. A compreensão é sempre a posição a partir da qual vemos tudo aquilo que vemos. Não existe um "não-lugar" onde possamos cair, para a partir daí vermos as coisas de uma forma mais clara e distinta, ou seja, clarividente. 

Na tradição da ciência ocidental, a objetividade é um meio essencial através do qual obtemos conhecimento preciso e claro, isto é, não influenciado por preconceitos subjetivos. É a luz natural da razão que verifica por meio da experiência como as coisas são, como o mundo é: a realidade. É a verdade validada pelas operações reflexivas da mente. Operações essas mecanizadas através de conceitos. Assim, o fundamento da objetividade não está na subjetividade daquele que fala, mas sim na realidade que se exprime na e pela linguagem. 

A pobreza que é considerarmos a compreensão em termos de conhecimento conceptual torna-se sobretudo evidente na interpretação literária. Compreender uma obra é experienciá-la. E a experiência vivenciada não é um subproduto da relação sujeito-objeto. Nem é uma abstração fora do espaço e do tempo, ou seja, fora da História. A experiência vivenciada, como a expressão em si já sugere, é algo que acontece a alguém de uma forma única e irrepetível, como se costuma dizer: "um aqui e agora" possuidor de vida e de história. para compreendermos alguma coisa em primeiro lugar temos de ter a experiência. O conceito vem depois. De fora, de uma perspetiva na terceira pessoa, "um aqui e agora" só pode ser avaliado numa dinâmica que se desenrola de um passado, passando pelo presente, a caminho de um futuro. Só a experiência nos ensina como podemos esperar o inesperado, como podemos nos abrir ao futuro, em suma, como atingir o estado de sábio de que os antigos nos dão conta.

sexta-feira, 27 de dezembro de 2019

Filosofia – Matemática – Ciência


Filosofarmos, ao contrário do que muita gente pensa, é a abrirmo-nos à discussão calma e cuidadosa. Um filósofo apresenta uma teoria. Os outros estudam cuidadosamente os seus argumentos, para ver se são cogentes; vão pensar e explorar teorias alternativas. Discutir ideias nestes termos é o que em filosofia se chama argumentar. Que exige abertura crítica, rigor e cuidado, e tanto quanto possível sem falácias. Isso não significa que no dia-a-dia existam filósofos que se recusam a discutir as suas ideias. E pensam que descobriram a pólvora. Mas isso acontece tanto com filósofos como com cientistas. É a ilusão mais humana que podemos ter. Mas o sistema em si mantém-se saudável desde que, institucionalmente, persista a liberdade e a possibilidade de discussão aberta, sem tabus.

Ao contrário do que se passa quando se faz ciência, aqui não se pretende o alcance de resultados. Mas na ciência dita fundamental, como por exemplo na física teórica, também não há garantia de resultados, e é argumentável que é precisamente nas fronteiras da ciência que está a verdadeira ciência, e não na ciência dita aplicada ou empírica. Era aliás por ter consciência desta diferença que Einstein, um físico teórico, defendia que ter uma formação filosófica era muito importante para um cientista teórico. Para todos os efeitos Einstein tinha um cérebro eminentemente matemático, que por ser assim tinha de ser de um rigor absoluto. Aliás é o rigor que existe no cérebro dos compositores musicais do calibre de um Mozart ou um Beethoven. Mas o rigor da sintaxe musical erudita é de um género diferente do rigor da química, que por sua vez é de um género diferente do rigor da matemática. O rigor geralmente possível em filosofia moral, por exemplo, é diferente do rigor possível em metafísica ou teoria do conhecimento.

Na família dos filósofos analíticos, como por exemplo um Frege ou um Bertrand Russel, tentou-se a procura sistemática e a formalização do raciocínio lógico usado na matemática. Historicamente, foi precisamente o facto de a filosofia platónica, que apresentava como lema: “só se admite a entrada a quem souber geometria”, uma espécie de herança pitagórica, que levou estes lógicos ao desenvolvimento da lógica formal, a que hoje chamamos clássica, mas que acabou por alterar radicalmente a face da matemática, dando-lhe um rigor e precisão que anteriormente só a geometria tinha.

A lógica booleana é apenas um pequeno fragmento da lógica formal. Mas hoje o que assistimos é a um grande desenvolvimento da lógica informal, que é bastante mais vasta do que a formal. Por outro lado, mesmo a lógica formal clássica ultrapassa em muito a lógica boolena, pois esta é meramente proposicional e verofuncional. A lógica modal proposicional, por exemplo, não é verofuncional. E acresce que muitas lógicas formais não clássicas não aceitam alguns aspetos da lógica booleana. Além disso é enganador dizer que a lógica booleana é matemática — é mais o inverso: uma parte da matemática pode ser reduzida à lógica.

A ciência empírica produz resultados porque lida com um certo domínio de problemas, para os quais há geralmente (mas nem sempre) soluções empíricas e matemáticas; a filosofia lida com problemas para os quais não há tais soluções. Concluir que por isso tais problemas são falsos problemas é falacioso porque tal conclusão é em si filosófica. A filosofia é incómoda porque não fazendo coisas é inevitável. Qualquer argumento que procure recusar a filosofia é em si intrinsecamente filosófico. A filosofia é mesmo este espinho incómodo que não nos garante resultados à partida. Sem a ousadia da filosofia, que aparentemente passa o tempo a fazer aparentemente perguntas idiotas sobre problemas aparentemente insolúveis, não haveria progresso científico. A filosofia é muito irritante para quem quer respostas pão-pão, queijo-queijo.

As ideias dos filósofos, do passado e do presente, são importantes num sentido diferente em que as ideias dos cientistas do passado são importantes. No caso da ciência, cada investigador contribuiu um pouco para a construção do que temos hoje: a ciência apresenta resultados em grande parte cumulativos. Mas a filosofia não apresenta resultados cumulativos — não sabemos hoje se há livre-arbítrio, por exemplo, como sabemos hoje qual é a composição da atmosfera de Marte. Mas são importantes porque exploram possibilidades que em qualquer caso têm de ser exploradas e porque ninguém sabe se alguma dessas teorias terá aspetos verdadeiros. Isto significa que as investigações de um filósofo do passado podem ter um interesse atual, e não meramente histórico: isto é, podemos querer discutir essas investigações como possibilidades vivas, teorias em aberto, e não como meras contribuições acabadas (definitivamente verdadeiras ou falsas) para a compreensão atual das coisas.

Muita gente confunde um filósofo com um historiador da filosofia. O historiador da filosofia não tem por missão discutir se a teoria de um determinado filósofo é plausível ou não. A sua missão é explicar cuidadosamente essa teoria, como se articula, como se relaciona com as outras teorias desse filósofo, e que tipo de influências tal teoria sofreu de outras ideias comuns no seu tempo, ou das leituras que esse filósofo fez, e que influência tal teoria teve mais tarde nos filósofos posteriores. Um filósofo faz outra coisa: discute essa teoria para saber se é plausível ou não e porquê, se deve ser rejeitada ou modificada e porquê, que argumentos a sustentam e que argumentos não podem sustentá-la. Agora, se um filósofo também faz história da filosofia, isso já é outra coisa.

Ora, um filósofo vive sistematicamente nas fronteiras da ciência, onde não há resultados nem receitas que garantam resultados. A filosofia é investigação de coisas que não sabemos sequer se existem, ou se algum dia viremos a conhecer. Esta própria posição é filosófica, meta-filosófica se quiserem, e está longe de ser consensual entre os filósofos. A filosofia é esta insistência em pensar e discutir cuidadosa e abertamente, sem nos fecharmos no subjetivismo cego, nas perspetivas pessoais e incomensuráveis.

Na realidade, parte importante dos problemas encarados como filosóficos foram realmente resolvidos. Ao serem resolvidos deixaram de fazer parte do for filosófico para passarem a fazer parte do foro científico. Contudo, se tivéssemos começado por desistir de tentar, se tivéssemos começado por rejeitar tais problemas por não termos métodos científicos para os resolver, nunca teríamos descoberto tais métodos. Descobrimos métodos científicos para resolver problemas porque primeiro estudámos esses problemas antes de serem científicos.

segunda-feira, 23 de dezembro de 2019

Um feliz acaso, num Natal em Nova Iorque


Feliz acaso (Serendipity) vem a propósito de uma história romântica, em que a mão do destino ditou a vida de duas pessoas que se encontraram por acaso num Natal em Nova Iorque.

O que é o feliz acaso na vida das pessoas? E o que é a vida? O feliz acaso, para o qual os ingleses inventaram a palavra Serendipity é uma ocorrência, ou uma descoberta afortunada não planeada. É uma ocorrência comum no amor entre um homem e uma mulher, e também tem sido comum ao longo da história das invenções e das descobertas científicas. Serendipity também tem a ver com outros domínios, como por exemplo: com o princípio do desenho na evolução das espécies de seres vivos; ou com o domínio das artes. O mesmo se aplica à evolução tecnológica.

Confrontamos-nos com uma limitação no campo do nosso conhecimento, que sistematicamente nos recusamos a aceitar. A evolução na biosfera é capaz de fazer coisas que não conseguimos antecipar. Faltam-nos premissas, faltam-nos categorias. Desde Darwin que sabemos que há uma evolução na biosfera em função do tempo. Nesta evolução há uma seta do tempo implícita, entre passado e futuro. A ideia de Darwin é uma dor de cabeça para certos intérpretes da 2ª lei da termodinâmica. Quando os criacionistas afirmam, até frequentemente, que a evolução biológica contradiz a 2ª lei da termodinâmica, demonstram unicamente que não entendem tal lei. Não há contradição por causa da ação do Sol, pois todo o sistema, quer estejamos a falar de vida, quer de massas de água em seu ciclo na Terra, é em última análise dependente do constante fluxo de energia proveniente desta estrela. A energia do Sol abastece os processos da vida, de modo que, por uma complexa rede de processos, limitada por leis físicas, proporciona as estruturas e os processos repletos de complexidade que desenham a diversidade da vida.

O planeta Terra, não sendo um sistema fechado, a evolução da vida complexa existente é perfeitamente compatível com a 2ª lei da termodinâmica
Faltam-nos conceitos prévios para determinar quais poderão ser todas as pré-adaptações possíveis; nem podemos determinar quais poderão ser todos os ambientes possíveis. No entanto esta imprevisibilidade não é nada que possa atrapalhar a evolução. As pré-adaptações darwinianas estão a ocorrer continuamente. A biosfera parece, pois, estar a fazer algo que não somos capazes de antever. Não por causa do indeterminismo quântico, ou do comportamento dinâmico caótico, mas porque nos faltam os conceitos prévios. Em linguagem técnica, isso significa que o espaço das possibilidades relevantes da biosfera – o seu espaço de fase – não pode ser pré-determinado. A criatividade da biosfera está vedada à nossa compreensão. Na física, em geral, é possível pré-determinar o conjunto de todas as possibilidades, isto é, o espaço de fase. Mas na biosfera, pelo menos até agora, ninguém foi capaz de o determinar. 

Para a pergunta - o que é a vida – não sabemos responder. Conhecemos algumas peças soltas da maquinaria molecular, algumas partes dos circuitos metabólicos, os circuitos das redes genéticas, os meios da biossíntese das membranas, mas escapa-nos aquilo que faz de uma célula independente um ser vivo. O essencial permanece misterioso. O tema da vida entronca num programa mais vasto que tem a ver com o caos e a teoria da complexidade. A pergunta que se deve fazer é: “o que é um agente autónomo?” Os organismos são ao mesmo tempo agentes autónomos e sistemas físicos, capazes de se autorreproduzir e capazes de realizar, pelo menos, um ciclo termodinâmico de trabalho.

A primeira questão consiste em examinar mais detalhadamente o conceito de “trabalho”. Para um físico, o trabalho é simplesmente a força que atua ao longo de uma distância. Mas em qualquer caso particular de trabalho, a força é aplicada de forma “organizada”, de modo a alcançar trabalho. O trabalho é uma “coisa” – a saber: a libertação condicionada de energia. Parece ser necessário trabalho para gerar restrições. E necessárias restrições para realizar trabalho. A célula realiza trabalho termodinâmico para construir moléculas lipídicas a partir de ácidos gordos e de outros blocos elementares. Os lípidos podem depois formar uma estrutura de baixa energia – uma camada bilipídica que constitui uma “bolha” oca designada lipossoma. De facto, as membranas celulares não são mais do que uma camada bilipídica que forma uma bola fechada. A própria membrana pode agora ser usada pela célula para alterar as restrições. 



A célula realiza trabalho que faz a ponte entre a libertação organizada de energia num certo ponto e a construção de restrições e a libertação organizada de energia noutros pontos, culminando no terminar do processo, através do qual a célula constrói uma cópia aproximada de si própria. Esta organização de processos é levada a cabo por qualquer célula em divisão e, no entanto, é impressionante que não disponhamos de qualquer linguagem – refiro-me a linguagem matemática – capaz de descrever o terminar do processo que se propaga à medida que uma célula gera duas, quatro células, uma colónia e, no limite, uma biosfera. Esta organização dos processos que se auto-propagam está contida no conceito de agente autónomo. A biosfera cria padrões interligados em propagação de trabalho organizado. Uma floresta tropical, que nasceu sem a necessidade de qualquer gestor central organizador, é uma autocriação em crescimento rápido de processos interligados. A biosfera é capaz de realizar algo que não pode ser predeterminado. A biosfera poderá alterar, de forma persistente, o seu “espaço de fase”



Pouco antes de morrer, em novembro de 1954 com 53 anos, Enrico Fermi – físico italiano naturalizado americano, que se destacou pelo seu trabalho sobre o desenvolvimento do primeiro reator nuclear, a primeira reação em cadeia autossustentada – foi a Los Alamos para ver se conseguia fazer um teste ao novo MANIAC, o primeiro supercomputador do mundo. Era como se fosse uma criança com um brinquedo ao qual não era capaz de resistir. Fermi pediu à máquina para simular os milhares de vibrações de uma cadeia elástica constituída por 32 partículas. Fermi já sabia que as ligações reais se comportam de forma não-linear, quando as vibrações tomam grandes amplitudes, e que ninguém sabia o que acontecia nesse caso. Ninguém sabia resolver as equações de um sistema não-linear com tantas partículas. O que eles esperavam era que o sistema degenerasse num estado de aleatoriedade. Essa era a previsão da termodinâmica. Mas o computador disse que não. Fermi ficou deliciado com este fenómeno. Infelizmente faleceu antes de ver publicados os resultados. A não-linearidade podia ser uma fonte surpreendente de ordem dando o caos. Por essa altura a física girava em volta da eletrodinâmica quântica. 

Fermi era um especialista em mecânica estatística e sabia muito bem que esta funcionava na perfeição para sistemas em equilíbrio termodinâmico. Mas os fenómenos do não-equilíbrio constituíam um caso à parte. Só perto da viragem para o terceiro milénio é que se fizeram avanços notáveis na esfera do caos e da não-linearidade. A sincronização de redes imensas de osciladores biológicos era manifestamente reminiscente de uma transição de fase: as redes neuronais artificiais de John Hopfield; o modelo das redes genéticas de Stuart Kauffman; ou as pilhas de areia auto-organizadas de Per Bak – foram todos elucidados pela fusão da mecânica estatística com a dinâmica não-linear. O caos significa que um sistema governado por regras deterministas pode, ainda assim, comportar-se de modo aleatório e aparentemente imprevisível. Apareceu em toda a parte, nas três últimas décadas do século XX: desde as flutuações de população em ecossistemas; nas arritmias cardíacas; até ao pingar irregular de uma torneira. Os modelos destas situações simuladas em computador são claramente especulativos, mas oferecem pistas intrigantes, como é o caso das simulações darwinistas sobre o impacto da seleção natural.

Esta biosfera está completamente relacionada com o as condições iniciais há 3,5 mil milhões de anos. Assim, no tema da vida, a primeira barreira a vencer consiste em caracterizar a conectividade das redes complexas. Tal é essencial, se queremos chegar algum dia a perceber como é que o cérebro calcula, ou por que razão as células se tornam cancerosas. Estamos a lidar com milhões de variáveis em interação. Poincaré mostrou que não são necessárias fórmulas algébricas. Desenhando os diagramas certos, é possível perceber muitas das características-chave de um sistema não-linear. Ainda assim, somos incapazes de ver como é que as soluções se comportam no “espaço de estados” definido por Poincaré. Em particular, somos incapazes de visualizar os atractores – o núcleo da dinâmica de longo prazo – porque o espaço de estados tem dimensão infinita. Não percebemos o comportamento estatístico a longo prazo dos sistemas complexos, porque eles se encontram longe do equilíbrio. E como também não somos capazes de visualizar os atractores, não sabemos o que fazer.

A consequência simples de tudo isto é que, para se conhecer a função dos órgãos de um organismo, temos não só de conhecer o organismo inteiro, mas também a sua integração no seu ecossistema. Existe algo de inalienável de sentido holístico nos agentes autónomos.

Hoje, a ciência já domina com grande desenvoltura o problema da inteligência do nosso cérebro, depois de ter criado os computadores, e agora a inteligência artificial. Mas ainda domina mal um problema ainda mais geral da vida que é o do desenvolvimento morfológico: a forma tão diversa, e tão sui generis, que as espécies animais e vegetais tomam conforme os sítios onde vivem. Como é que as instruções do ADN são capazes de transformar algo tão simples quanto um óvulo fertilizado em algo tão maravilhosamente complexo quanto um recém-nascido. Ao fim e ao cabo o genoma sozinho não chega para construir um ser vivo. É preciso toda uma cascata de acontecimentos de uma complexidade astronómica. Ocasionalmente os demónios são libertados, o ambiente é diferente daquele que o gene estava à espera, e o sistema desalinha-se.
Não devemos subestimar a dimensão da imagem e do imaginário impregnada na linguagem. E linguagem aqui não é apenas a língua falada, pois a linguagem envolve uma multiplicidade de sinais codificados por vários meios. O imaginário simbólico é refratário à investigação empírica reduzida a uma lógica mecanográfica. A razão permite, sem dúvida, analisar factos, estabelecer relações de causa e efeito entre eles, mas não cria significados. A criação de significados é do plano simbólico. E para que essa criação ocorra é necessária imaginação, substrato primordial da condição humana. 


sexta-feira, 20 de dezembro de 2019

Os Caretos de Podence



Os Caretos de Podence foram oficialmente reconhecidos como Património Imaterial da Humanidade pela UNESCO. A decisão foi tomada em 12 de dezembro passado, em Bogotá, capital da Colômbia.

Em toda a região de Trás-os-Montes há Caretos, mas os de Podence distinguem-se dos restantes pelo chocalho, daí o nome da festa ser “Entrudo Chocalheiro”. É nos chocalhos que se concentra a acção, com as ruidosas manifestações dos Caretos a atraírem durante quatro dias à aldeia de Podence, com cerca de 180 habitantes, milhares de curiosos portugueses e estrangeiros. Durante os dias de festa, grupos de caretos percorrem a aldeia horas a fio para cima e para baixo, à prura de mulheres. São geralmente rapazes solteiros. Correm e gritam quando vislumbram mulheres desprevenidas, mas também há muitos encontros consensuais. O Carnaval em Podence, de resto, sinal dos tempos, é um palco onde os papéis muitas vezes tendem a inverter-se, no sentido de serem as mulheres quem cada vez mais procura os caretos.

A cultura transmontana é fértil em tradições mítico-religiosas, uma boa parte com origem nos povos asturianos, mas em boa verdade desconhece-se a origem e o sentido destas tradições. É possível que sejam tão remotas quanto o início da agricultura, na passagem do Paleolítico para o Neolítico. Mas porque é que em Podence as “raparigas são chocalhadas quando o Diabo anda à solta”, pouco se sabe. Os caretos têm a ver com os ritos iniciáticos de passagem da adolescência para a vida adulta, onde são integradas reminiscências de ritos guerreiros esotéricos, e ritos de ligação do mundo dos humanos ao mundo invisível dos deuses e dos antepassados. Para a mentalidade arcaico-solar, o guerreiro é, sobretudo, o símbolo da energia espiritual, que coloca o CAOS na Ordem do Mundo. Aquele que se supera a si próprio nesta passagem iniciática da adolescência, e enfrenta com êxito os ‘estados alterados de consciência’, é o propiciador da fertilidade dos campos, da saúde do gado e da boa sorte. A máscara, com o seu simbolismo e poder mágico inerentes, constitui um aspeto fundamental deste rito. A máscara é o símbolo da passagem de um estado de consciência para outro, que facilita ao jovem o romper da sua persona de adolescente e o subsequente renascer para a vida adulta.

Entre os rituais cíclicos muito antigos, que algumas aldeias portuguesas ainda preservam, os mais importantes são os festejos em louvor à Mãe-Natureza. Mas estes realizam-se no verão, ligados à época das colheitas. São 
as festividade mais significativas em todo o lado. Outros ritos, como estes dos caretos que se celebram no solstício de Inverno, representam mais um papel anunciador de um novo ano de colheitas que há de vir. Podence faz parte do “reino maravilhoso” tão amado por Miguel Torga. Muita gente ainda vai lá assistir para ficar atónita e esmagada pelas pedras que se silenciam para a música - tocada por instrumentos rústicos ali inventados há muitos séculos - se fazer ouvir em comunhão com o fogo dos cepos, e a água das fontes santas, num horizonte de amplas serranias e vales profundos. É uma experiência de raros estados de consciência modificados.

quinta-feira, 19 de dezembro de 2019

Epistemologias modernas e pós-modernas


Este tempo é um tempo de excelência para a ciência e a tecnologia, frutos de uma cultura envolvendo o universo experimental e matemático da pesquisa aplicada. Mas não têm faltado, no campo da filosofia, importantes críticos pedindo contas aos cientistas por terem estragado o planeta Terra, a nossa casa.Neste sentido, chamo aqui a epistemologia para uma reflexão profunda e crítica sobre o universo da ciência, uma vez que a ciência ocupa um lugar central e determinante para a sustentabilidade da vida neste planeta.  


A ciência é cúmplice da industrialização, na medida em que é a ciência que racionaliza o processo de produção. A ciência penetrando na indústria, é ela própria industrializada ("indústria cultural"). Cabe então aos epistemólogos questionar e problematizar o chamado “bom senso científico” em prol da nossa sobrevivência. Não se trata de deitar abaixo a ciência na sua dimensão social. Trata-se de mostrar que ela não constitui um mundo à parte, neutral, desinteressado. Todo o conhecimento é portador de interesses.

Epistemologia é a ciência da ciência. Ou se quisermos ser mais disciplinares, é a filosofia da ciência no campo da teoria do conhecimento. É consensual, entre os filósofos desta área, que o melhor que o conhecimento científico tem é ser provisório, jamais acabado ou definitivo. E não deixa de ser tributário de um pano de fundo ideológico, religioso, económico, político e histórico. Podemos considerar a epistemologia como o estudo metódico e reflexivo do saber.

No seio da comunidade científica, há muitos que estão convictos, ingenuamente, que o mundo é fundamentado independentemente das capacidades percetivas e cognitivas do agente. Os objetivistas puros chegam ao ponto de conceber o seu mundo como sendo o mesmo mundo, por exemplo, da águia ou do morcego. Ou então, se não pensam assim, acham que o mundo que conhecem é que é o mundo completo, ao passo que o mundo das águias é um mundo incompleto, pobre, imperfeito. À convicção de um tipo de realismo e de a possibilidade de a ciência conhecer o mundo tal qual é, independente do cientista, costuma chamar-se em epistemologia: objetivismo.

Mas há uma posição filosófica (epistemológica), partilhada por várias correntes tanto anglo-saxónicas como continentais, que defende que qualquer tipo de conhecimento, científico ou não, não pode ter fundações estáveis. Estes, apesar de não pensarem como os objetivistas, não são contra o objetivismo, porque a raiz do seu pensamento não contempla a dicotomia “objetivo/subjetivo”. Os objetivistas mais confusos, classificam estes últimos de pós-modernos. Pondo de lado guerras que não dizem respeito a ensaios deste tipo, há de facto um pós-modernismo que se extrema num certo tipo de niilismo e relativismo epistemológico.

Uma corrente que tem merecido mais atenção é aquela que questiona se nosso conhecimento tem fundações estáveis. É aquela corrente que incorpora no “fazer ciência” o aspeto experiencial vivido pelo cientista na sua experiência de vida quotidiana. Muitos o negligenciam, mas deve-se questionar se não haverá aqui uma certa desonestidade intelectual. Serve para a nossa sobrevivência, mas não serve para fazer ciência? Ora, tudo indica que o conhecimento está implicado numa circularidade que envolve o mundo, o conhecedor e o conhecer no mesmo movimento.

Uns pensam que como o mundo é real, o conhecedor até pode ser falível, mas há que confiar na ciência para conhecê-lo: estes são os objetivistas realistas. Outros pensam que é o conhecedor que decide da verdade, porque nunca podemos saber como é o mundo: estes são os subjetivistas idealistas. E ainda há aqueles que se definem pela negação: niilismo relativista. Pese embora a ironia, dizem estar nos antípodas dos objetivistas, mas não deixam de ser filhos do objetivismo. E por fim há os que pensam numa modalidade intermédia: um “entre-dois” dinâmico e dialético.

O período da explosão da ciência moderna não passa de mais um pontinho entre muitos outros pontinhos também brilhantes desse movimento pendular da História. Se conseguíssemos estudar um pouco melhor os escritos antigos chineses, e sem o habitual chauvinismo, vislumbraríamos que na antiga China também havia um raciocínio apuradamente lógico-formal. Oriente e Ocidente, o nome que damos a duas civilizações distintas, mas que puderam inferir o que chamamos de lógica formal e, no entanto, os seus destinos foram completamente diferentes.

A ciência tradicional chinesa (no seu tempo antigo há +/- 3000 anos) baseou-se num sistema formal tão eficiente quanto a do ocidente (no seu tempo moderno há +/- 400 anos). Ambas permitiram as variedades de místico e de mágico tanto quanto era possível imaginar. O desenvolvimento e a complexidade dos métodos lógicos na China antiga seriam dignos de uma análise mais profunda. Não se pode ignorar que a civilização chinesa atingiu patamares elevados em todos os campos. O pensamento chinês permite-nos ver falhas no nosso sistema lógico, tivéssemos flexibilidade para o reconhecer.

É claro que é com narrativas (ocidentais ou orientais), mais ou menos etnocêntricas, que construímos mundos. Em todo o caso, já podíamos estar melhor elucidados acerca do fenómeno pendular da História, e do “quem influencia quem”, pelo menos desde o tempo dos pré-socráticos, se nos tivéssemos colocado num ponto em que pudéssemos avistar a linha do horizonte mais por largo.

Se aprendermos progressivamente a abandonar esta tendência de apego etnocêntrico, podemos começar a estimar que as narrativas não só não são puras como não têm um ponto fixo absoluto. O que aconteceu nos tempos áureos do Ocidente, não poderia ter sido de outra maneira, foi a imposição dos seus pontos de vista. O pêndulo estava no lado ocidental. Agora, o pêndulo já se encontra outra vez no Oriente, é a vida… Este é o movimento pendular da história, do eterno retorno entre Oriente e Ocidente; entre Ocidente e Oriente.


quarta-feira, 18 de dezembro de 2019

Neurogénese: o cérebro não é de mármore



Depois de James Watson e Francis Crick, e quase um século depois de Darwin, o cérebro era uma máquina governada geneticamente. Estava a despontar a era dos computadores e da robótica. E a comunidade científica mantinha o dogma de que depois de nascermos o nosso cérebro não produzia novos neurónios. Esta teoria sustentava que as células do cérebro – ao contrário de todas as outras células do nosso corpo – não se dividiam. E este princípio era fundamental no campo da neurologia. Até ao início dos anos de 1980, esta tese era teórica, ninguém havia realizado até aí nenhum estudo sério. Foi então que Pasko Rakic, da Universidade de Yale, meteu mãos à obra, em doze macacos rhesus, e concluiu no fim: “todos os neurónios do cérebro do macaco são produzidos durante a vida pré-Natal”. Mais uma vez as experiências de Rakic não foram verificadas por outras entidades independentes, tal era o prestígio deste investigador. Mas em ciência nunca há nada definitivo. É essa a sua maior virtude. E foi isso o que aconteceu com a teoria do cérebro fixo de Rakic, acabou por ser demonstrado que estava enganado.

Em 1989, Elisabeth Gould, da Universidade Rockefeller, em Nova Iorque, num estudo da morte de células do hipocampo, provocadas pela síndrome de stress pós-traumático, verificou que o cérebro se regenerava a si mesmo. E a surpresa ainda foi maior quanto Gould, depois de uma exaustiva revisão bibliográfica, se deparou com um trabalho de Joseph Altman, do MIT, de 1962, que já havia demonstrado em ratos adultos e gatos a formação de novos neurónios. Mas, como muitas vezes acontece em ciência quando há dogmas, os resultados foram ridicularizados, e depois ignorados. Esta é a outra face da medalha da ciência, menos virtuosa. 



Resultado de imagem para Elizabeth Gould brain

Elisabeth Gould  (foto de Denise Applewhite)

Foi necessária mais uma década para que Michael Kaplan, da Universidade do Novo México, usasse um microscópio eletrónico para imaginar neurónios a gerar novos neurónios. Entretanto Elisabeth Gould descobriu outro trabalho, este em pássaros, de autoria de Fernando Nottebhom. O cérebro dos pássaros mostrou que a neurogénese era necessária para que os pássaros cantassem. Nottebhom estudou os pássaros no seu habitat natural. Numa gaiola isso dificilmente aconteceria. Nos tentilhões e nos canários, a neurogénese, tinha um propósito evolutivo real. Mais uma vez estes resultados foram marginalizados. Uma contradição a um dogma científico leva tempo, e encarniçamento, até que seja admitido como um facto científico pela ciência dita “normal”. Foi essa a principal mensagem de Thomas Kuhn no seu Structure of Scientific Revolutions. 

Foi o encarniçamento de Elisabeth Gould que a levou a ir por um outro caminho diferente, a fim de investigar a neurogénese. Foi um trabalho muito cansativo, mas no fim revelou-se compensador. Os dados de Gould alteraram o paradigma. Tinham passado mais de trinta anos desde que Altman vislumbrara pela primeira vez novos neurónios. A neurogénese passou então a serfinalmente, um facto científico, e a fazer parte da ciência dita "normal". Não é fácil ver novos neurónios radiativos, sobretudo quando não se espera ver. É preciso procura-los para os ver. Acresce que primatas de laboratório têm tudo para reprimir a neurogénese. Uma jaula monótona cria um cérebro monótono. A constatação de que as condições típicas de um laboratório são debilitantes para animais, e dão origem a dados falsos, foi uma das descobertas casuais no campo da neurogénese. Gould continuou as suas pesquisas, agora para mostrar que a dimensão da neurogénese é, em si, coordenada pela envolvente externa, e não apenas pelos genes. 


Já que nós éramos apenas esculturas elaboradas de proteínas, os biólogos presumiram que éramos a soma do nosso ADN. Somos máquinas de sobrevivência, mas para os genes, como declarou Richard Dawkins, em The Selfish Gene ( O Gene Egoísta), o seu primeiro livro publicado em 1976, em que ele apresenta uma teoria que procura explicar a evolução das espécies na perspectiva do gene e não do organismo, ou da espécie. Para Dawkins, nós somos veículos, programados cegamente, para preservar as moléculas egoístas conhecidas por genes. 

O Projeto do Genoma Humano (PGH), foi iniciado em 1990 com grande otimismo. Mas a natureza escreve direito por linhas tortas. O primeiro facto alarmante que o PGH pôs a descoberto foi a vertiginosa dimensão do nosso genoma. Tínhamos mais ADN do que o necessário para codificar as 100.000 proteínas diferentes do nosso corpo. Mais de 95% do genoma humano é constituído por aquilo a que os cientistas chamam intrões. Quando o PGH ficou concluído em abril de 2003, a biologia já não conseguia sequer definir o que era um gene. A adorável simplicidade de Dawkins caía por terra sob as complicações da nossa realidade genética devido aos efeitos epigenéticos. O código genético exigia contexto. Apesar de sermos tão diferentes de um chimpanzé, partilhamos com ele  98,7% do nosso genoma; e 42% com um insecto. Os biólogos foram forçados a concentrar a sua biologia molecular no modo como os nossos genes interagem com o mundo real.

Se o nosso cérebro fosse apenas programado geneticamente, então teríamos um problema, porque o cérebro do rato contém aproximadamente o mesmo número de genes que o cérebro humano. Concluiu-se que há pouca correlação entre o tamanho do genoma e a complexidade do cérebro. Paradoxalmente, há muitas espécies marinhas que têm genomas muito maiores do que o genoma humano. Apesar de os genes serem responsáveis pela arquitetura do cérebro, os neurónios são bem moldáveis para se adaptarem às experiências vividas pelo indivíduo. O sistema nervoso é praticamente idêntico ao sistema imunitário, que tem de adaptar constantemente a vida às variações do meio externo. A mente e a imunidade são distinguidas pela sua maleabilidade. Por exemplo, supunha-se que o QI era basicamente estável ao longo da vida. Mas estudos realizados em crianças adotadas, verificou-se que crianças que à partida tinham um QI baixo, pouco tempo depois de se integrarem em famílias da classe média alta, os seus QI's subiram num período relativamente curto. Portanto, até caracterísitcas mentais com um forte vínculo genético, são incrivelmente sensíveis à mudança, em determinados contextos do meio ambiente.

terça-feira, 17 de dezembro de 2019

Não acreditar numa divindade em pessoa: Borges e Espinosa




Como a Ética de Espinosa nos remete continuamente para proposições e axiomas, Jorge Luís Borges dedicou-lhe dois poemas, para lhe retirar os andaimes, o aparato geométrico, como Borges chamou aos axiomas e definições. Borges gosta mais de Espinosa, do que de Descartes, apesar de este ter sido uma espécie de mestre de Espinosa. Espinosa com a fórmula: “Deus-ou-Natureza”, chega a essa conclusão sem exigir de nós uma mitologia, uma ficção. Podemos aceitar a equivalência, ainda que lhe possamos chamar panteísta: "Todas as coisas estão cheias de divindade". Por ter sido excomungado, alguns afirmam que, por isso, Espinosa só poderia ser ateu. Ele era um judeu nascido em Amesterdão em 1632, mas descendente de judeus portugueses que haviam emigrado para Amesterdão, inquietados com a intolerância da Igreja Católica em relação aos judeus, e da implacável Inquisição. A Inquisição havia sido fundada em Portugal em 1536. Por conseguinte, não podia ser cristão. Como foi excomungado pela sinagoga de Amesterdão, logo, não lhe restaria outra coisa senão ser ateu. Mas Borges diz que isso não é bem assim:“Liberto da metáfora e do mito / lavra um árduo cristal: o infinito / Mapa do que é: suas estrelas." Espinosa polia lentes e, ao mesmo tempo, polia esse labirinto cristalino da sua filosofia. 


Baruch Spinoza, 1665. Pintura de autor desconhecido.

Para Espinosa, a substância não possui causa fora de si, ela é causa de si mesma, ou seja, causa sui. Ela é singular, a ponto de não poder ser concebida por outra coisa que não ela mesma. Por ser causa de si, a substância é totalmente independente, livre de qualquer outra coisa, pois sua existência basta-se em si mesma. Ou seja, a substância, para que o entendimento possa formar o seu conceito, não precisa do conceito de outra coisa. A substância é absolutamente infinita, pois se não o fosse, precisaria ser limitada por outra substância da mesma natureza.

Pela proposição VI da Parte I daÉtica, Espinosa afirma: "Uma substância não pode ser produzida por outra substância". Portanto, não existe nada que limite a substância, sendo ela, então, infinita. Da mesma forma, a substância é indivisível, pois, de contrário, ao ser dividida: ou conservaria a natureza da substância primeira; ou não. Se conservasse, então uma substância formaria outra, o que é impossível de acordo com a proposição VI; se não conservasse, então a substância primeira perderia sua natureza, logo, deixaria de existir, o que é impossível pela proposição 7, a saber: "à natureza de uma substância, pertence o existir". Sendo da sua natureza - a substância não poder ser dividida - ela é única e infinita. Chamemos-lhe Deus ou Natureza, a substância é indivisível e infinita.

Apesar de Espinosa chamar à substância Deus-ou-Natureza, é um Deus radicalmente diferente do Deus judaico-cristão, pois Deus-ou-Natureza não tem vontade nem finalidade. A substância não pode ser um Ser sem existir. Se pudesse Ser sem existir, haveria uma divisão, e a substância seria limitada por outra substância, o que, para Espinosa, é absurdo.
Em nós há propósitos, e há ética e estética, mas no Universo não faz sentido um Ser individual com um propósito. Consequentemente, o Deus de Espinoza não pode ser um alvo de preces. De resto, é melhor não pedir nada. Porque, mesmo pedido justiça, é já pedir muito, é pedir demasiado. Basta dar uma vista de olhos, para sabermos que no Universo não reina a justiça. 

Borges, em relação à Verdade e à Ética, é kantiano, é categórico. Aceita que a Verdade é só uma; e a consequência é múltipla. Por isso recusa-se a que a Ética tenha um vínculo de dependência da consequência. Tudo isso nos é totalmente, ou completamente, inacessível. Por isso é mais seguro não lhe chamar Deus - diz Borges -  porque se lhe chamamos Deus já estamos a individualizar. E a individualidade é incompatível com a divindade, com o transcendente, que ele admite que existe. Agora, a Trindade, como diz a doutrina, essa acha-a inconcebível. 


A consequência do ato de Colombo achar que devia chegar à Índia pelo lado oeste da Península Ibérica, foi uma coisa boa ou uma coisa má? Depende! Porque as consequências foram tantas que nós perdemos no emaranhado consequencialista. Portanto, julgar um ato pela sua consequência, Borges acha que é absurdo, logo, imoral. Pensar numa perspetiva consequencialista é pensar no imediato, como se o futuro não existisse. Pensar apenas no que é melhor para nós no curto prazo, até pode ser bom para nós, algo que nos é vantajoso, mas desastroso para as futuras gerações. Essa forma de pensar, apenas nas consequências de curto prazo, encerra uma ética imoral.

Falar de realidade quotidiana pode ser perigoso, porque não sabemos se o Universo pertence ao género realista ou idealista. O amor no humano é inevitável, o que não significa que teria que ser necessário. Pode ser apenas uma contingência. Acaso? Necessidade? Eis a questão!

O nosso passado é a nossa memória, não interessa se é verdadeira ou falsa. Invoca aquela memória que nos acontece de repente, como quando inspiramos um dado cheiro, ou um dado trecho musical, e todo um passado já vivido se ilumina de novo, sem que a nossa vontade intervenha nisso, como uma coisa vinda do nada. 


O outro mundo é uma bela invenção humana. A maior parte das pessoas que acredita na existência de algum tipo de Deus também acredita numa vida após a morte. Para aqueles que acreditam numa vida após a morte, a morte não é o fim de tudo. É poética, a noção de outro mundo para além deste mundo. No que o poeta escreve há sempre algo que parece remeter-nos a um mais além. Mas seja como for, a linguagem é muito pobre comparada com a complexidade das coisas. E então comparada com a nossa consciência nem vale a pena falar. É absurdo supor que todos os matizes da consciência humana possam caber num "sistema mecânico de grunhidos". 

O medo da morte é muito comum. E a crença em Deus, e numa vida após a morte, pode ser um consolo para aqueles cujas vidas são desagradáveis ou penosas. Contudo, a crença numa vida após a morte não passa de um wishful thinking - a expressão em língua inglesa para designar aquilo que podíamos chamar "falácia da esperança" - acreditar numa coisa só porque se deseja que seja verdadeira.

Bom, para este medo, não há como uma vida bem examinada. A maior parte das pessoas, num ou noutro momento da sua vida, já se interrogou a respeito de questões que tem sido o trabalho persistente de filósofos como um Espinosa ou um Epicuro. Por que razão estamos aqui? Há alguma demonstração da existência de Deus? As nossas vidas têm algum propósito? O que faz com que algumas ações sejam moralmente boas e outras moralmente más? O que é a arte? e assim por diante.
Mas será que o Deus descrito pelos teístas existe de facto? Poderemos demonstrar que esse Deus existe? Ao longo da história da filosofia, paredes meias com a teologia, muitos argumentos foram tecidos para demonstrar a existência de Deus. Não vou entrar agora nesse caminho. Vou antes apelar a Epicuro para serenar os ânimos: mesmo que a morte seja o fim de tudo não temos nada a recear. É mil vezes preferível à imortalidade. O medo da morte surge ao imaginarmos erradamente que estaremos cá depois de morrermos para lamentar a nossa própria perda. Porque se pensarmos melhor, verificamos que, enquanto vivos, não nos preocupamos com a eternidade da nossa não-existência antes de termos nascido. Porque haveríamos, pois, de nos preocuparmos minimamente com a nossa não-existência depois de morrermos? Logo, o receio da morte é irracional. O que não deixa de ser racional é o medo pelo que vamos ter de passar no processo que conduz à morte, e o sofrimento que geralmente o acompanha. Mas conhecemos casos de pessoas que, já em provecta idade, se deitam à noite para dormir, bem dispostos, mas já não acordam no dia seguinte. Caso não morrêssemos, as nossas vidas deixariam de ter o valor que têm.

segunda-feira, 16 de dezembro de 2019

Epistemologia da perceção do mundo exterior


Qual é exatamente a diferença entre o que penso ver e o que está de facto à minha frente? Poderei alguma vez ter a certeza acerca do que existe no mundo exterior? Estas são algumas questões que podemos levantar no âmbito da epistemologia da percepção. No nosso dia a dia, que não há tempo para filosofar, não temos dúvidas quanto à coerência dos nossos sentidos: o que vemos à nossa frente é o que está lá. Este é o realismo de senso comum.

Mas filosofar é outra coisa, porque com argumentos lógicos facilmente nos apercebemos que não podemos ter certezas depois de termos descoberto que os sentidos nos enganam em várias situações. Sabemos isso pelos sonhos, ou quando temos ilusões, alucinações, ou miragens.

Uma outra forma de realismo é o realismo representativo, em que estamos convencidos que aquilo a que temos acesso direto ou imediato, não são as coisas em si propriamente ditas, mas a sua representação nos nossos cérebros. O idealismo é uma posição filosófica que evita algumas das dificuldades que se levantam ao realismo representativo. Porque o realismo representativo fala em imagens mentais, ou mesmo num filme a correr dentro da nossa cabeça. Mas tem dificuldade em explicar como é que se formam essas imagens, com que conteúdos, e em que formatos. O que os idealistas defendem é que não existe justificação para afirmar que o mundo exterior existe realmente, uma vez que o mundo exterior para nós é incognoscível. Então, se o que eles dizem é o que querem mesmo dizer, então o que lhes podemos dizer é que isso é um absurdo. Porque a consequência dessa ideia é, para os idealistas, os objetos só existirem enquanto estiverem a ser percecionados.

O bispo Berkeley (1685-1753) é sempre citado como o mais famoso idealista, e Samuel Johnson (1709-1784) o seu grande crítico, que pensou tê-lo refutado quando deu um forte pontapé numa grande pedra, declarando: "refuto-o assim".

Na mesma linha do idealismo, a teoria da perceção baseada na ideia de que só temos acesso direto à nossa experiência sensorial e não ao mundo exterior, há uma outra corrente de pensamento conhecida por fenomenismo. Mas difere do idealismo na explicação dos objetos físicos. Os fenomenistas acreditam que todas as descrições dos objetos físicos podem ser traduzidas em termos de descrições de experiências sensoriais efetivas ou hipotéticas. Enquanto o idealista defende que os objetos deixam de existir quando não os estamos a observar, o fenomenista acredita que estes objetos continuam a existir. Tanto o idealismo como o fenomenismo acabam por cair naquilo que é classificado por solipsismo. Isto significa que apenas podemos conhecer a nossa representação. E como tal, não podemos saber se a representação dos outros é igual à nossa.

Até hoje, o realismo causal é a posição que se tem revelado mais satisfatória. O realismo causal defende que recolhemos do mundo exterior informação, que não tem que passar rigorosamente por representações mentais de qualquer tipo. O realismo causal pressupõe um mundo real que existe independente de as pessoas o estarem a percecionar ou não. Isto é conhecido como um pressuposto metafísico, porque está de acordo com as nossas intuições mais básicas, que são aquelas que se têm revelado as mais eficazes para enfrentarmos o mundo nas atividades da nossa vida quotidiana.


sexta-feira, 13 de dezembro de 2019

Cuidados Paliativos – Cicely Saunders


Imagem relacionada

Cicely Saunders [1918-2005, Londres] foi a primeira médica a dedicar toda a sua carreira aos cuidados de doentes em fase terminal. É considerada por alguns a mãe dos Cuidados Paliativos. Cresceu no seio de uma família abastada, frequentou o mais prestigiado colégio interno para raparigas da Grã-Bretanha, e foi para Oxford estudar. Mas deixou a universidade para se tornar enfermeira.

Em 1948 apaixonou-se pelo pintor polaco David Tasma, que estava a morrer de cancro. Tasma deixou-lhe em testamento dois mil dólares para a criação de um centro de cuidados paliativos. Cicely Saunders estudou medicina mais tarde, aos 39 anos, porque queria descobrir a melhor maneira de controlar a dor terminal. Licenciou-se em 1957 e investigou o controlo da dor no St. Joseph Hospice, em Londres, onde se prestavam cuidados de enfermagem a doentes em fase terminal.

Em 1967, finalmente é inaugurado o St. Christopher’s Hospice, em Londres, que cumpre o projeto a que se havia devotado com a herança de Tasma. O seu trabalho assentava em três pilares contra a dor: física, emocional e moral. Sendo uma mulher profundamente religiosa, é natural que não aceitasse a eutanásia.

Ainda voltou a casar, em 1980, com o artista Marian Bohusz-Szyszko. Outra experiência pungente, dado que Marian foi acometido por uma doença prolongada. Esteve muito tempo internando no St. Christopher’s, onde acabou os seus dias em 1995. Cicely Saunders também esteve internada no St. Christopher’s, onde morreu com 87 anos de idade.


Há muitos aspetos a considerar no trabalho de um centro de cuidados paliativos. Por mais sofisticados que sejam os mais recentes avanços científicos, a medicina nunca será capaz de curar tudo. As pessoas necessitarão sempre de cuidados genuinamente humanos no final das suas vidas.

O aumento da esperança de vida durante o século XX levou a uma atitude de negação em relação aos processos naturais do envelhecimento e da morte. Os avanços em medicina criaram a falsa expectativa da cura para tudo. Não podemos negar as grandes conquistas civilizacionais contra as doenças infeciosas, e mais algumas, mas poucas. Mas tal deve-se não apenas à medicina. Deve-se ao maior conhecimento científico em geral, e a melhores condições de vida que passa pela alimentação e infraestruturas ligadas à habitação. Mas como não há almoços grátis, conquistas civilizacionais também proporcionaram o surgimento de outros males, sobretudo ao que hoje se classifica por doenças crónicas, doenças da abundância onde se incluem os acidentes, e obviamente o famigerado cancro.

Por conseguinte, ainda há muito mal de saúde para o qual não dispomos de cura na velha aceção da palavra. Por isso, quando falamos de cuidados paliativos, pressupõe-se que já está posta de parte qualquer hipótese de cura. O controlo da dor no seu sentido mais abrangente - físico, psíquico e moral - é o objetivo principal dos cuidados paliativos. E é confortar e sossegar. Que passa também pelos familiares e amigos.

Como a falta de cuidados paliativos pode levar alguns doentes terminais a optar pela eutanásia, ou suicídio assistido, é bom que estejamos cientes da razão por que poderá ser exagerado o número de pedidos de ajuda de alguém em penoso sofrimento, geralmente a um médico, para que lhe ponha termo à vida. É pois necessário que primeiro: sejam envidados todos os esforços para que cada doente terminal tenha acesso a cuidados paliativos; segundo: que não se esconda ao doente tudo o que sabemos acerca do seu estado. Embora, o diagnóstico e demais esclarecimentos acerca do seu estado de saúde, devam ser dados gradualmente e com grande sensibilidade afetiva.

A ciência da subtileza


Hoje podemos colocar-nos num aparelho de Imagem de Ressonância Magnética Nuclear, ou colocar um capacete com mais de 250 sondas de eletroencefalografia para tentar captar os nossos estados mentais através das zonas ativas. E já começam a aparecer sistemas de imagiologia cerebral mais leves, portáteis e discretos. Mas a realidade ainda está longe de satisfazer os nossos anseios de conhecer a nossa mente pelos métodos científicos tradicionais. As questões sobre aquilo que significa ser inteligente, e aquilo que significa ter uma boa educação, não estão no centro da atual investigação científica. A inteligência artificial ocupa hoje as prioridades da ciência de topo, a tempo inteiro.

Há uma outra tecnologia-chave na validação das complexidades da consciência humana baseada na cartografia dos padrões de expressão dos genes. Cada célula do cérebro te um conjunto completo de genes, mas apenas alguns deles se exprimem num dado momento. Esta expressão traduz-se pela transcrição em ARN e seguidamente em proteínas. Além disso, áreas diferentes do cérebro apresentam padrões diferentes de expressão dos genes, e estes padrões mudam com o tempo, não apenas através do desenvolvimento desde o embrião até ao adulto, mas também através das situações que ocorrem dia após dia, mês após mês. Assim, o mapa de expressão dos nossos genes no cérebro altera-se conforme as situações por que passamos e vivemos: seja aquando do nascimento de um filho, ou numa tese de doutoramento, ou no funeral de um familiar ou amigo. Quase todo o estado mental que dure mais do que umas poucas horas pode implicar mudanças na expressão dos genes. 


Hoje é possível dar conta de efeitos genéticos no comportamento das pessoas através do acesso ao genoma da pessoa. São diversas as combinações genéticas. Agora, desde o mapeamento do genoma humano, deu-se um salto colossal na aplicação da genética, quer na medicina curativa, quer na medicina forense, e até na paleoantropologia. É o caso de Ötzitambém conhecido como “The Iceman”, ou “L’Homme des glaces” encontrado nos Alpes orientais em 1991, na fronteira entre a Áustria e a Itália. Uma múmia de um homem que por acidente ficou congelado há 5.300 anos. As 57 tatuagens dispersas por várias partes do corpo, mas sobretudo na região dorsal, não deixa de ser um pormenor assinalável. Entre as múltiplas curiosidades deste corpo humano, a múmia mais antiga alguma vez encontrada, para além da historiografia das migrações dos povos da Europa na Idade do Cobre, é o manancial de estudos genéticos de grande importância que podem ser realizados. Pode-se especular como afinal as tatuagens e os piercing, uma fantasia muito em voga nos tempos que correm, acompanham os humanos desde tempos muito antigos. 


Mas há aqui uma advertência: não está tudo nos genes. A variação genética é capaz de explicar apenas cerca de metade da variação da personalidade de um indivíduo para outro. Finalmente, os desenvolvimentalistas perceberam a relação entre personalidade e contexto. Há uma disparidade entre os ambientes modernos e os ambientes que foram responsáveis pela moldagem dos genes humanos.

Os introspecionistas do século XIX ao focarem-se sobre si próprios descreviam um mundo interior muito rico, mas esqueciam-se do resto, que objetivamente era muito. Daí terem entrado em cena os behavioristas no século XX. Estes, por sua vez, ao focarem-se no comportamento externo das pessoas, para fazer o contraditório aos introspecionistas, descreveram uma natureza humana quase de pernas para o ar, porque consideravam o interior do cérebro como se fosse uma caixa negra, impenetrável. E assim, esqueceram-se de si próprios. Agora, os psicólogos dispõem de meios que permitem apresentar as assinaturas neurais e genéticas das manifestações mais efémeras e mais ambivalentes da consciência humana. Ao mesmo tempo, a ciência cognitiva ia fazendo o seu caminho, ao fomentar um diálogo profícuo entre as múltiplas disciplinas que passaram a interessar-se pela mente humana: filósofos, psicólogos, neurocientistas, antropólogos, linguistas, engenheiros informáticos especialistas em inteligência artificial, e até físicos da mecânica quântica. Deixou de fazer sentido preservar aquela ideia do sábio polifacetado tocador de vários instrumentos ao mesmo tempo. Aquela ideia de uma pessoa bem instruída que era capaz de discutir com erudição um certo número de tópicos de história, de filosofia e de literatura. O que fazia sentido agora era a multidisciplinaridade no estudo do nosso último reduto: o cérebro.

À medida que as máquinas se vão tornando cada vez mais inteligentes,; à medida que as redes digitais se tornam cada vez mais capazes de nos darem as respostas sobre aquilo que mais nos interessa;  menos interesse irão ter aqueles “sábios” alegadamente repositórios de conhecimentos enciclopédicos, porque as máquinas passaram a ser muito melhores que os humanos. A Escola, onde o professor era a pessoa que sabia  mais do que o aluno, e tanto mais quanto mais erudito fosse, passou à história, deixou de ser o "Magister dixit", a autoridade em matéria de ensino. A Escola não será mais o lugar onde se veem os alunos sentados em fila muito atentos ao professor e a memorizar o que ele diz. A Escola deixou de ser o lugar de aquisição de conhecimentos dados por respostas tidas como soberanas, para passar a ser o lugar onde se aprende a questionar. Agora o que vai importar é que o aluno aprenda a saber fazer as perguntas certas. Porque as respostas estarão acessíveis na rede e dadas instantaneamente apenas com um clique de rato ou um toque digital ou vocal na tela virtual. 


A investigação em neurociências percorreu um longo caminho no desvelo do modo como certos aspetos da mente - a perceção, a memória e as emoções - são mediados através do cérebro. Muito deste trabalho implicou estudos em organismos não humanos, particularmente em ratos e macacos. Se bem que esta abordagem seja adequada para colocar questões sobre as funções cerebrais humanas, uma vez que os humanos partilham muita coisa com outras criaturas, a verdade é que ainda fica um grande vazio na nossa compreensão dos aspetos do cérebro humano que são únicos. Daí que a investigação que passou a ser realizada em humanos com lesões cerebrais tenha ajudado a preencher certas lacunas deixadas em aberto pela investigação noutros animais. Mas os estudos em indivíduos com lesões cerebrais, revelando a forma como o cérebro reage à função perdida, deixava ainda por explicar o funcionamento do cérebro nas suas condições normais, e no ambiente natural da vida quotidiana. Um dos aspetos prende-se com a linguagem, sem a qual o pensamento humano seria muito pobre. E é uma função que não pode ser estudada diretamente em nenhuma outra espécie que não humana. Estudos de ressonância magnética funcional têm desempenhado um papel muito importante no esclarecimento da forma como funciona a memória de trabalho verbal no cérebro humano.

quinta-feira, 12 de dezembro de 2019

As armadilhas da amígdala cerebral



O corpo amigdalino do cérebro é um conjunto de núcleos neuronais, uma amígdala de cada lado por baixo dos lobos temporais. Faz parte co complexo sistema límbico e o seu papel principal é processar as reações emocionais.

De um modo geral nós não temos qualquer controlo consciente da função das várias regiões do cérebro, mas a amígdala então seria impossível, porque a função da amígdala consiste em iniciar rapidamente respostas para nos proteger face a perigos súbitos. E esta atividade é do foro do inconsciente, isto é, mais rápida a atuar do que a nossa perceção consciente dos acontecimentos. Só depois de tomarmos consciência da situação, ou se o estímulo se mantiver durante u certo tempo, então o nosso comportamento tende a ficar sob o domínio dos processos do pensamento mais elevados, mediados pelo córtex.

Os tipos de resposta fornecidos pela amígdala são inatos, inscritos nos circuitos por memória da espécie. E é por isso que podem ser rápidos, porque são automáticos, executados de forma semelhante em todos os membros da espécie. Agora, para as decisões deliberadas, que podem levar alguns segundos a serem executadas, em comparação com os milissegundos da amígdala, já são outros circuitos que entram em ação. A amígdala poderá ainda influenciar ou modelar indiretamente as respostas mais complexas, mas no final é a parte do córtex que toma conta das situações.

Ora, como a amígdala controla o comportamento emocional de uma forma inconsciente, no limite uma pessoa pode cometer um crime sem que no ato de o cometer tenha tido consciência disso. A consciência ocupa-se do caso algum tempo mais tarde que varia muito de caso para caso. É claramente possível à amígdala controlar, em certas circunstâncias de forte tensão emocional, ou de grande perigo, de forma que o indivíduo pode executar um ato agressivo independente do controlo consciente. Ato esse que a pessoa consciente jamais perpetraria intencionalmente. Infelizmente os crimes passionais inscrevem-se neste tipo de atos em que é a amígdala a responsável. E esta possibilidade não escapou aos advogados, quando vão defender uma pessoa que até aí foi sempre uma pessoa balançada, respeitadora das leis d da boa conduta cívica, mas que durante um curto momento de irracionalidade, ou insanidade, comete um crime. Portanto, o advogado pode argumentar invocando a amígdala em defesa do seu constituinte.

É incontornável a modificação que se verifica na forma como olhamos para certos atos criminosos praticados por pessoas de que não estávamos à espera, isto é, por pessoas que não têm nada a ver com “serial killer”, à medida que vamos conhecendo cada vez mais como funciona o nosso cérebro por trás dos nossos comportamentos aberrantes. Provavelmente irá acontecer com mais frequência a convocação de neurologistas, ou neurocientistas, aos tribunais para dissiparem eventuais dívidas que possam ocorrer nos julgamentos de casos de crime passional.

quarta-feira, 11 de dezembro de 2019

Falácias


O termo “falácia” aplica-se preferencialmente em contextos argumentativos. E é um assunto que tem merecido estudo aprofundado por filósofos, sobretudo aqueles que se dedicam especialmente à área da Lógica. E são estes autores que se referem à violação de regras quando explicam em que consiste uma determinada falácia, que geralmente tem um nome próprio.

Um dos nossos erros mais comuns é tirar conclusões a partir de dados insuficientes. Se o primeiro político profissional for encontrado a roubar, criamos a expectativa de que todos os políticos são corruptos. Esta é a falácia da generalização a partir de informação incompleta. Para além de ser uma das falácias mais frequente e mais fácil de cometer, acresce a sua peculiaridade de ser mais fácil de detetarmos quando são os outros a fazê-lo, do que quando somos nós.

Outra falácia comum consiste em ignorar alternativas. Há muito mais explicações alternativas para um acontecimento do que julgamos. O facto de dois acontecimentos estarem correlacionados não significa que um foi a causa do outro, ou vice-versa. Não nos devemos precipitar, e aceitar a primeira explicação que nos ocorre como causa. Em geral há muito mais explicações.

Post hoc ergo propter hoc - O nome em Latim significa: “depois disso, logo, por causa disso”. Isto descreve a falácia. Um autor comete a falácia quando pressupõe que, por uma coisa se seguir a outra, então aquela teve de ser causada por esta.

Petição de princípio (petitio principii) - A verdade da conclusão é pressuposta pelas premissas. Muitas vezes, a conclusão é apenas reafirmada nas premissas de uma forma ligeiramente diferente. Nos casos mais subtis, a premissa é uma consequência da conclusão: Sabemos que Deus existe, porque a Bíblia o diz. E o que a Bíblia diz deve ser verdadeiro, dado que foi escrita por Deus e Deus não mente. (Neste caso teríamos de concordar primeiro que Deus existe para aceitarmos que ele escreveu a Bíblia.)

Erro mereológico: Este tipo de falácia ocorre porque o autor pressupõe erroneamente que as partes e o todo devem ter propriedades semelhantes. No entanto, as coisas podem ter, como um todo, propriedades diferentes das que cada uma tinha em separado. 
Por as partes de um todo terem uma certa propriedade, argumenta-se que o todo tem essa mesma propriedade. Esse todo pode ser tanto um objecto composto de diferentes partes, como uma colecção ou conjunto de membros individuais:
Os neurónios não têm consciência. Portanto, o cérebro, que é feito de neurónios, não tem consciência. Logo, nós não temos consciência.

Falácias da explicação
Uma explicação é uma forma de raciocínio que tenta dar resposta à pergunta “Porquê?” Por exemplo: é com uma explicação que respondemos a uma pergunta como “Por que é que o céu é azul?” Uma boa explicação será baseada numa teoria científica ou empírica. Uma explicação pretende dizer-nos por que razão acontece certo fenómeno. A explicação é falaciosa se o fenómeno não ocorre ou se não houver prova de que possa ocorrer. A teoria que foi concebida para explicar a ocorrência de algum fenómeno não pode ser testada. Testamos uma teoria por meio das suas previsões. Por exemplo, uma teoria pode prever que a luz muda de trajectória em certas condições, ou que um líquido muda de cor com o ácido. Se o evento previsto não ocorrer, então a informação obtida contradiz a teoria. Uma teoria não pode ser testada se não faz previsões. Também não pode ser testada se prevê acontecimentos que podem ocorrer independentemente de a teoria ser verdadeira. Um avião desapareceu no meio do Atlântico devido ao efeito do Triângulo das Bermudas, uma força tão subtil que não pode ser medida por qualquer instrumento. (À “força” do Triângulo das Bermudas não se atribui mais nenhum efeito além do desaparecimento ocasional de um avião. Por isso, a única previsão que permite é que mais aviões se irão perder. Mas isto é o que pode muito bem acontecer independentemente de a teoria ser verdadeira ou falsa.

Usamos definições para tornar os nossos conceitos mais claros. O propósito da definição é enunciar com exactidão o significado de uma palavra. Uma boa definição deve permitir que o leitor a aplique a casos concretos sem ajuda exterior. Por exemplo, suponhamos que queremos definir a palavra “maçã”. Se a definição for bem-sucedida, então o leitor deve poder aplicá-la a cada maçã que existe e só a maçãs. Se o leitor falhar algumas maçãs ou incluir outros objectos (como pêras) ou não puder dizer se algo é maçã ou não, então a definição falha. As definições não são argumentos. Por isso, não se pode, com rigor, falar de “Falácias da Definição”. Mas as definições incorrectas, por vezes tendenciosas, são muitas vezes incluídas em argumentos tornando-os falaciosos. A definição inclui o termo definido como parte da definição. Uma definição circular é um caso especial da falta de clareza. 

Pós-verdade. Negacionismo. Testemunho bíblico


No cenário da pós-verdade - no contexto do Brexit, das eleições presidenciais dos EUA, ou do negacionismo climático, qualquer versão, que confirme aquilo que se quer ouvir, serve. A evidência científica é preterida. Mais apropriado seria dizer, portanto, que a pós-verdade subordina os factos à preferência de cada um. É nestas circunstâncias que os factos objetivos são menos influentes na opinião pública do que as crenças pessoais. 

São os efeitos perversos das notícias falsas (fake news) na sociedade que convém a todos aqueles que tiram partido delas como forma de supremacia ideológica. Ora, para combater a pós-verdade, é preciso entender a sua origem, que como tudo, nunca tem uma só causa: pós-modernismo; viés cognitivo na descrença da ciência, que nos EUA foi delineada por uma agenda político-religiosa com o criacionismo a fazer o trabalho sujo na guerra ao darwinismo; crise da comunicação social tradicional; a explosão descontrolado das novas redes sociais ancoradas na internet. 
Para a comunidade filosófica, o pós-modernismo, uma definição difusa das teorias da verdade: "não há verdade objetiva e qualquer declaração de verdade é meramente um jogo no seio da linguagem". O viés cognitivo na descrença da ciência foi fomentado por interesses económicos baseados no caráter falível da ciência, a segundo a qual determinado resultado científico não é certo e que, então, há pelo menos dois lados com igual peso sobre determinado tema. Essas estratégias foram utilizadas pela indústria do tabaco e, de forma exemplar, na negação do aquecimento global antropogénico.

Quanto à deriva criacionista, cuja fé assenta na verdade bíblica, John Barton (em "A History of the Bible: The Book and its Faiths", Penguin, 2019, 640 pp) tem algumas ideias acerca de como os cristãos em particular podem recalibrar a sua relação com a Bíblia de maneira a tratá-la como “um documento crucial mas não infalível da fé cristã” . Se é difícil considerar a presença na Escritura de algo falso, em qualquer sentido da palavra, ao mesmo tempo que se acredita que a Escritura foi inspirada por Deus, então “talvez seja melhor não fazer a afirmação elevada de que foi inspirada — ou, pelo menos, talvez seja melhor entender a inspiração de maneira diferente”. A primeira opção pode parecer mais chocante aos crentes (aos descrentes a questão não se põe); mas a segunda é mais difícil. Dado o ónus da expectativa posta na Bíblia como fonte da verdade revelada, é impossível imaginar que se chegue a um novo conceito de inspiração que não constitua, inevitavelmente, apenas mais uma leitura forçada do texto: uma maneira de reter o seu significado divino ao mesmo tempo que se evita os elementos “indesejáveis”, ainda que estes pudessem ser objeto de consenso universal. A única resposta poderá ser abandoná-la: tratar esta imensa e decrépita antologia polifónica como qualquer outro texto antigo, deixá-la falar-nos tal como está sem tentar controlar a conversa e (se necessário) aceitar que qualquer plano divino digno desse nome nos seria em qualquer caso inacessível.

terça-feira, 10 de dezembro de 2019

Equidade e Discriminação Positiva


Um problema que sempre pareceu afetar os sistemas jurídicos é o da divergência entre o espírito e a letra da lei. O ideal seria que esta divergência não existisse. Uma coisa que se deve esperar de um juiz é que tenha presente a intenção real que está por trás do articulado da lei, e não apenas a mera letra da lei. Quando é tido em conta esse aspeto, os juízes estão a praticar o princípio da equidade. O termo equidade deriva da ideia de direito natural. O que as doutrinas equitativas têm em vista é evitar julgamentos que sejam injustos. Lon L. Fuller (1902-1978), professor e precursor de Ronald Dworkin, contribuiu de modo decisivo para a criação da teoria do direito natural. Foi durante vários anos professor de Direito em Harvard. Da sua obra "A Moralidade do Direito", 1964, é uma antítese deliberada à grande obra de Hart, que a precedeu alguns anos, e que fazia uma abordagem positivista à teorização jurídica. Os sistemas jurídicos podem ser profundamente imorais e por isso sujeitos, de várias maneiras, a acusações de um ou outro tipo de falta de validade. Dworkin, aluno de Fuller e também de Hart, encarregou-se de o explicar. Dworkin é um dos mais influentes filósofos vivos do direito no mundo da língua inglesa, e ainda, depois de John Rawls, um dos mais importantes teóricos da justiça social.

John Rawls (1931-2002) , como filósofo político, é o filósofo mais citado atualmente pelos tribunais e figuras políticas nos países de língua inglesa, e não só. Rawls é famoso pela sua obra monumental: Teoria da Justiça, 1971. Faz reviver um relato contratualista da justiça política e económica, oposta ao utilitarismo que há muito prevalecia entre os filósofos de língua inglesa. O conceito metodológico de um "véu de ignorância" é o ponto essencial desta sua obra. Assim, os agentes cobertos pelo véu, vão estabelecer dois princípios básicos: o primeiro é o da prioridade da liberdade, em que os direitos básicos civis e políticos não podem ser trocados por conforto material; o segundo é o princípio da diferença, pelo qual as desigualdades das circunstâncias materiais apenas poderão ser toleradas desde que possam servir para benefício dos mais desfavorecidos. O contratualismo consiste em que a legítima autoridade do governo depende do consentimento dos governados. E assenta também numa teoria moral em que as normas éticas retiram o seu poder normativo de um hipotético contrato social, em vez da vontade divina ou de qualquer outra fonte. A sua teoria é, ainda hoje, o centro da defesa dos direitos humanos.
É de longa data a desigualdade de tratamento na área do trabalho. A igualdade de oportunidades não significa que todas as pessoas devem poder ter o emprego que quiserem independentemente das suas capacidades. O que a igualdade de oportunidades quer dizer é igualdade de oportunidades para todos os que possuem as capacidades e competências relevantes para desempenhar a tarefa em questão. A igualdade de oportunidades no trabalho é habitualmente defendida como um dos aspetos de um movimento mais vasto que começa no nascimento e acaba na educação. É preciso falar ainda nesta questão, uma vez que continua a existir, quer ao nível das etnias, quer ao nível dos géneros em algumas profissões. Mas quando discriminamos no bom sentido, predominando um género em detrimento do outro, estamos a fazer discriminação positiva.

A discriminação positiva favorece pessoas de grupos que tenham sido vítimas habituais de discriminação. É o caso, por exemplo, das mulheres em determinadas profissões. O objetivo de tratar as pessoas desta forma desigual é para acelerar o processo de tornar a sociedade mais igualitária, acabando com os desequilíbrios escandalosamente existentes em certas profissões. Em vez de se esperar que esta situação mude gradualmente de forma espontânea, deve-se atuar categoricamente, e discriminar favoravelmente a mulher, ou seja, positivamente, se uma mulher e um homem se candidatarem ao mesmo lugar e tiverem mais ou menos a mesma habilitação. Mas os igualitaristas militantes vão mais longe, argumentando em defesa desse procedimento, mesmo que a candidata mulher tenha um currículo inferior ao do homem. Deve ser escolhida a mulher desde que seja suficiente, ou competente quanto baste, para desempenhar as funções associadas ao lugar. Acrescentando que a discriminação positiva é apenas uma medida temporária, até que a percentagem de membros do grupo tradicionalmente excluído reflita mais ou menos a percentagem de membros deste grupo na população em geral. Em alguns países é ilegal; noutros é obrigatória.

Os críticos que se apresentam do outro lado da barricada da discriminação positiva, apresentam, contudo, argumentos muito significativos para justificar a sua posição. Críticos empedernidos à discriminação positiva argumentam que ela fomenta a injustiça, para além de constituir uma fraude em relação ao mérito e à competência. Além disso, muitas vezes conduz ao ressentimento, apesar de o objetivo da discriminação positiva ser criar uma sociedade na qual o acesso ao mercado de trabalho de certas profissões seja distribuído de forma mais justa. Não é apenas aquele que fica preterido apenas pela mera condição de género, que se ressente, mas também todo o grupo profissional do mesmo género, por mecanismo de solidariedade de género. Por conseguinte, a tendência para o ressentimento de género, procurando vingança, ainda que tal impulso seja gerado na esfera do inconsciente, estende-se a todo o grupo tanto mais quanto o empregador admite candidatas visivelmente incapazes de desempenhar as suas funções. A longo prazo, argumentam, isto pode destruir todo o movimento a favor da igualdade de acesso ao trabalho que a discriminação positiva procura atingir.