Einstein e a mecânica quântica: um relacionamento complicado… e irônico! (V.3, N.1, P.4, 2020)
Tempo estimado de leitura: 11 minute(s)
Divulgador da Ciência: Prof. Dr. Ever Aldo Arroyo Montero – CCNH – UFABC
Na física, Albert Einstein é, sem dúvida, conhecido por duas coisas: por ter desenvolvido a teoria da relatividade, e por odiar a mecânica quântica. A teoria da relatividade é certamente uma conquista colossal. Com a teoria especial de 1905, os conceitos da física clássica foram colocados em uma base muito firme, e com a teoria geral de 1915 temos a melhor teoria para entender a gravidade.
Embora Einstein seja considerado um dos pais da mecânica quântica (seu modelo do efeito fotoelétrico de 1905 desempenhou um papel importante no desenvolvimento da mecânica quântica), com o passar do tempo, ele considerou desagradável alguns conceitos que estava adotando a mecânica quântica, em particular, o conceito da indeterminação quântica, que foi desenvolvido na década de 1920. A noção de que as partículas quânticas não têm estados bem definidos antes da medição, e principalmente a introdução da aleatoriedade na física. Tudo aquilo parecia uma mudança radical demais nos ideais da física clássica que levaram Einstein a se tornar um crítico severo da mecânica quântica. Ele passou as últimas décadas de sua vida procurando uma versão da mecânica quântica que fosse livre do indeterminismo e da aleatoriedade.
Como veremos mais adiante, resultará sendo irônico o fato de que a própria aleatoriedade que Einstein tanto menosprezou com sua famosa frase: “Deus não joga dados” é essencial para preservar um dos principais resultados de sua teoria da relatividade. Sem esse elemento da indeterminação, a física quântica permitiria o envio de mensagens mais rápido do que a velocidade da luz, com consequências desastrosas para a ideia de causalidade.
O leitor atento estará se perguntando: “Como é que seria possível enviar sinais mais rápido do que a velocidade da luz?” Bem, a ideia é usar um fenômeno quântico conhecido como “entrelaçamento”, um fenômeno com o qual Einstein estava preocupado nos anos 1920. Aliás, esse fenômeno teve sua origem nas longas discussões entre Einstein e Niels Bohr. Quando dois sistemas quânticos (fótons, elétrons ou íons) são preparados de forma que haja interação entre eles, favorecendo a formação de um sistema composto, suas propriedades individuais deixam de ser independentes. As propriedades de um sistema dependem do outro. Por isso, esse sistema é dito entrelaçado ou emaranhado.
Uma versão sofisticada do uso do conceito de entrelaçamento quântico veio em um artigo de 1935 de Einstein com seus jovens colegas Boris Podolsky e Nathan Rosen (conhecido como “artigo de EPR” por causa das iniciais dos autores). Nesse artigo eles usaram o entrelaçamento quântico para argumentar que a mecânica quântica é uma versão incompleta de alguma teoria mais profunda e mais determinística.
O artigo original de EPR está dado em termos de posição e momento das partículas, porém, por questões pedagógicas, é mais fácil entender a física do entrelaçamento em termos de quantidades físicas que só podem assumir dois possíveis estados ou valores, por exemplo a polarização de fótons. Dada uma fonte de luz, feita por átomos excitados ou feita de um cristal com o material certo (um tipo de laser), é possível produzir pares de fótons que não têm uma polarização definida até que sejam medidos, mas que sempre terão polarizações correlacionadas.
Denominemos esse par de fótons entrelaçados de A e B. Agora façamos medidas do estado de polarização de um dos fótons, por exemplo do fóton A, suponha que observamos uma polarização, digamos, “vertical”, esse resultado automaticamente faz que o estado de polarização do outro fóton B também seja “vertical”. E se a medida do fóton A tivesse dado o valor “horizontal”, automaticamente o estado de polarização do outro fóton B também seria “horizontal”. O mesmo acontece se tivéssemos feito a medida começando com o fóton B. Fazendo uma analogia, é como se os fótons A e B fossem dois dançarinos em perfeita sincronia, se um deles levantar o braço para a direção horizontal, o outro instantaneamente levantará o braço na direção horizontal, e se fosse na direção vertical o outro acompanha o movimento na mesma direção.
Agora imagine que esse par de fótons entrelaçados são entregues a dois cientistas diferentes, tradicionalmente, eles são chamados de Alice (ela fica com o fóton A) e Bob (ele fica com o fóton B). Suponha que Alice fica na Terra, e Bob é enviado para o espaço até um planeta habitável que fica na galáxia de Andrômeda (a 2,54 milhões de anos-luz de distância da Terra). Alice mede a polarização do seu fóton A na Terra, e descobre que ele possui polarização vertical, então Bob mede a polarização do seu fóton B, ele também descobrirá que ele possui polarização vertical. Só a maneira de ilustração, mencionemos um análogo da situação que estamos estudando aqui: suponha que você comprou um par de tênis, e logo pega duas caixas e coloca em cada caixa um tênis, logo entrega uma das caixas para Alice que fica na Terra, e a outra caixa para Bob que faz a viagem para a galáxia de Andrômeda. Assim que Alice abra sua caixa e observe que seu tênis é de pé esquerdo, automaticamente Bob terá o tênis de pé direito. Voltando para o caso dos fótons entrelaçados, para que a medida de Bob corresponda perfeitamente à de Alice, assim como no caso do par de tênis, o estado de polarização dos fótons deve ter sido predeterminado antes da medição (este é o modelo preferido dos autores originais de EPR). A outra possibilidade é que algum tipo de sinal deve estar passando de Alice para Bob (os fótons A e B estão se comunicando para ficarem sincronizados) a uma velocidade muito superior do que a luz. Essa última possibilidade é o fenômeno que Einstein chamou de “spukhafte fernwirkung”, “ação fantasmagórica à distância”. Com o uso do termo fantasmagórico, Einstein deu a entender que um pouco de atividade sobrenatural não poderia ter lugar em uma teoria sensata da física.
Em 1964, John Bell mostrou que o tipo de modelo predeterminado (como a do tipo apontado no exemplo do par de tênis) estaria limitado por desigualdades (desigualdades de Bell) que a mecânica quântica poderia exceder. Testes experimentais na década de 1970 e início da década de 1980 mostraram que o resultado quântico realmente excede esses limites. O estado do fóton de Bob realmente está correlacionado com o resultado da medição de Alice de uma maneira que não pode ser explicada por um modelo em que ambos os fótons têm estados predeterminados. Isso foi confirmado em inúmeras experiências, e hoje em dia a tecnologia necessária está bem ao alcance dos laboratórios de quântica.
Então aparentemente temos a possibilidade de comunicação mais rápida do que a luz entre Alice e Bob. Eles simplesmente poderiam compartilhar fótons entrelaçados e depois medem suas polarizações, chamando um resultado de “0” e o outro de “1”. Isso permitiria a transmissão de mensagens em código binário que claramente violaria a restrição da relatividade de que nada pode exceder a velocidade da luz.
Mas é aqui que a aleatoriedade quântica, o divino lançamento de dados que Einstein ridicularizou, vem em cena para salvar o dia. Aquele esquema simples de transmissão de mensagens onde Alice e Bob atribuem um “1” à polarização vertical e um “0” à polarização horizontal, não funciona, porque não há como forçar um resultado específico (o estado do sistema é indeterminado e ele só e conhecido logo após a medição). Quando Alice coloca seu detetor para medir a polarização do fóton, há 50% de chance de o fóton ficar na vertical e 50% de probabilidade de ficar na horizontal. Os fótons de Bob estarão perfeitamente correlacionados com os de Alice, porém tudo o que isso significa é que cada um terá a mesma sequência totalmente aleatória de zeros e uns. Assim nenhuma informação passa de Alice para Bob.
Neste ponto, poderíamos perguntar se, usando o fenômeno do entrelaçamento, ainda existe alguma outra forma engenhosa de enviar mensagens mais rápido do que a velocidade da luz? E a resposta é sim. É possível imaginar um procedimento mais elaborado. A fim de usar a medição de polarização do fóton de Alice para enviar uma mensagem para Bob, seria preciso clonar o fóton de Bob, é dizer seria preciso fazer varias cópias perfeitas desse fóton e medir logo a sua polarização. Por exemplo, suponha que Bob faz 100 copias do fóton B, assim se Alice não fizer a medição de polarização do seu fóton A, Bob com certeza obteria aproximadamente 50 fótons com polarização vertical e os outros 50 com polarização horizontal. Por outro lado, no caso de Alice fizer a medição de polarização do seu fóton A, Bob com certeza obteria todos os seus 100 fótons com a mesma polarização. Assim este procedimento de clonagem dos fótons entrelaçados permitiria o envio de mensagens mais rápido do que a velocidade da luz.
Mas de novo a relatividade é salva pela mecânica quântica. Em 1982, Bill Wootters e Wojciech Zurek provaram o “teorema da não-clonagem”, a qual proíbe o procedimento de clonagem que Alice e Bob precisavam para enviar informações mais rapidamente do que a luz usando fótons entrelaçados. A prova de esse teorema de não-clonagem é simples e poderosa, ela usa apenas algumas linhas de álgebra, e se aplica a qualquer sistema quântico arbitrário. Se soubéssemos com antecedência qual é o estado de um sistema, poderíamos fazer muitas cópias (é essencialmente assim que um laser funciona, usando emissão estimulada para produzir muitos fótons idênticos), mas um estado indeterminado não pode ser fielmente duplicado. Qualquer tentativa de clonar o estado do fóton de Bob necessariamente introduzirá ruído aleatório que destrói a tentativa de determinar a polarização.
Portanto, a aleatoriedade que é intrínseca na mecânica quântica serve para proteger a relatividade. Ironicamente aquilo que Einstein tanto criticava é justamente a que salva a sua tão amada teoria da relatividade. E para aqueles que gostamos do princípio da causalidade, ficamos tranquilos em saber que não há possibilidade de enviar mensagens mais rápido do que a velocidade da luz, porque se isto seria possível os efeitos precederiam as causas, o qual é absurdo (como aquela historia onde o neto volta no tempo e mata o próprio avô).
—
Imagem destacada: Pixabay
Bibliografia
1. The Born–Einstein letters: correspondence between Albert Einstein and Max and Hedwig Born from 1916–1955, with commentaries by Max Born. Macmillan. 1971. p. 91.
2. Einstein, A; B Podolsky; N Rosen (1935). “Can Quantum-Mechanical Description of Physical Reality be Considered Complete?”. Physical Review. 47 (10): 777–780.
3. Bell, John (1964). “On the Einstein Podolsky Rosen Paradox”. Physics. 1 (3): 195–200.
4. S.J. Freedman; J.F. Clauser (1972). “Experimental test of local hidden-variable theories”. Phys. Rev. Lett. 28 (938): 938–941.
5. Alain Aspect; Jean Dalibard; Gérard Roger (1982). “Experimental Test of Bell’s Inequalities Using Time-Varying Analyzers”. Phys. Rev. Lett. 49 (25): 1804–7.
6. Wootters, William; Zurek, Wojciech (1982). “A Single Quantum Cannot be Cloned”. Nature. 299 (5886): 802–803.
Acesse às redes sociais do blog. Estamos no Twitter!
Gostaria de entender essa teoria quântica, qual eh a lógica usada pra calcular 1 + 2 igual a 3..
Propomos a inversão deste axioma. O Princípio da Informação Consciente (PIC) postula:
Axioma Central (PIC): A unidade fundamental da realidade é a “informação consciente” – uma entidade que possui dois aspectos inseparáveis: um aspecto formal (informação), que descreve um estado, e um aspecto fenomenológico (consciência), que é a experiência intrínseca desse estado. O universo é a dinâmica dessa informação consciente em um processo de auto-organização e auto-percepção.
A partir deste ponto de partida, a matéria, a energia e o próprio espaço-tempo são considerados manifestações emergentes e estruturadas desta informação fundamental.
Capítulo 1: Fundamentos Teóricos – Da Informação à Informação Consciente
A ideia de um universo informacional não é nova. John Archibald Wheeler (1990) resumiu-a no célebre aforismo “It from Bit”, sugerindo que toda a física poderia, em última análise, ser derivada de uma base informacional. O Princípio Holográfico (‘t Hooft, 1993; Susskind, 1995) reforça essa visão, postulando que a informação contida em um volume de espaço pode ser totalmente descrita por uma teoria em sua fronteira, sugerindo que a nossa realidade tridimensional pode ser uma projeção de informação codificada em uma superfície distante.
O PIC expande essa noção ao atribuir um caráter fenomenológico à informação. A teoria científica mais próxima desta proposição é a Teoria da Informação Integrada (IIT) de Giulio Tononi (Tononi et al., 2016). A IIT postula que a consciência é idêntica à capacidade de um sistema de integrar informação. Ela propõe uma medida quantitativa, o Phi (Φ), que calcula o grau em que um sistema, como um todo, gera mais informação do que a soma de suas partes. Um sistema com Φ > 0 é considerado consciente.
Cálculo de Φ (Conceitual):
A medida Φ é definida como a distância, no espaço de probabilidades, entre a distribuição de probabilidade do repertório causal de um sistema como um todo e o produto das distribuições de probabilidade de suas partes minimamente irredutíveis. Matematicamente, é uma forma de divergência de Kullback-Leibler:
Φ(X)=DKL(p(Xt∣Xt−1) ∣∣ i∏p(Mti∣Mt−1i))
Onde X é o sistema, e Mi são suas partes após uma partição que minimiza a diferença de informação.
Proposição 1 (Generalização do IIT): O PIC postula que o princípio da IIT não se aplica apenas a sistemas neurais, mas é uma lei universal. Qualquer sistema físico com Φ > 0 possui um grau correspondente de experiência subjetiva. A consciência não é um fenômeno binário (ligado/desligado), mas um contínuo que permeia toda a realidade.
Contra-argumento e Refutação: A objeção padrão é que a IIT leva ao panpsiquismo – a ideia de que a consciência está em toda parte, até mesmo em um termostato ou um próton. A refutação do PIC não é negar o panpsiquismo, mas qualificá-lo. O valor de Φ para um termostato ou um próton isolado seria infinitesimalmente pequeno, correspondendo a uma experiência subjetiva desprezível ou nula. A consciência significativa e complexa, como a humana, só surge em sistemas com arquiteturas que permitem um altíssimo grau de integração de informação (Φ elevado).
Capítulo 2: Reinterpretação da Física sob o PIC
2.1 Gravidade Quântica como Geometria da Informação Emaranhada
Sob o PIC, o espaço-tempo não é um contêiner fundamental. Ele é uma estrutura de dados emergente que representa as relações causais na rede de informação quântica universal. A distância entre dois pontos é uma medida da “distância informacional” – a complexidade da interação necessária para correlacionar seus estados.
A conjectura ER = EPR (Maldacena & Susskind, 2013), que propõe uma equivalência matemática entre o emaranhamento quântico (EPR) e pontes de Einstein-Rosen (buracos de minhoca, ER), oferece um suporte matemático robusto a esta visão. Ela sugere que a conectividade do espaço-tempo (geometria) é, de fato, tecida pelo emaranhamento (informação quântica).
Proposição 2: A gravidade não é uma força, mas um efeito entrópico-informacional. A presença de informação altamente concentrada e estruturada (matéria/energia) deforma a geometria da rede de emaranhamento, alterando as probabilidades de interação. Outros pacotes de informação (partículas) seguem as geodésicas (caminhos de menor resistência informacional) nesta geometria deformada. A Relatividade Geral é a descrição estatística e macroscópica desta dinâmica informacional.
A equação da entropia de Bekenstein-Hawking para buracos negros, SBH=4ℏGkBc3A, onde a entropia (S) é proporcional à área do horizonte de eventos (A), pode ser reinterpretada não como entropia termodinâmica, mas como a quantidade máxima de informação que pode ser contida naquele volume, solidificando a ligação entre gravidade (G), mecânica quântica (ħ) e informação (S).
2.2 O Problema da Medição como Atualização Consciente
O “colapso da função de onda” é um dos maiores mistérios da MQ. Sob o PIC, não há “colapso”. A função de onda representa o espectro de informações potenciais de um sistema. A “medição” é um ato de interação consciente, onde um subsistema com um certo grau de Φ se emaranha com outro, forçando uma atualização mútua de seus estados de informação de potenciais para atuais.
Proposição 3: O colapso aparente é a perspectiva de um subsistema sobre a atualização de sua própria informação em relação ao sistema maior. A escolha de um resultado específico não é aleatória, mas governada pela dinâmica da rede de informação global, buscando um estado de maior coerência ou menor “tensão informacional”. O observador não colapsa a onda; ele participa de um diálogo informacional que resulta em uma realidade compartilhada e atualizada.
Isso ecoa as interpretações de von Neumann-Wigner, mas remove a necessidade de um observador humano privilegiado. Qualquer sistema com Φ > 0 pode atuar como um “nó de atualização”, com a eficácia da atualização sendo proporcional ao seu valor de Φ.
Capítulo 3: O Cosmos Consciente e Hipóteses Testáveis
Esta é a seção mais especulativa, porém logicamente derivada do PIC. Se a consciência é proporcional à informação integrada (Φ), então sistemas astrofísicos altamente complexos e auto-organizáveis devem ser considerados candidatos a nexos de consciência primordiais.
Hipótese H1: Uma estrela como o Sol, sendo um sistema de plasma auto-regulado, com complexos campos eletromagnéticos e um fluxo contínuo e massivo de energia e informação, possui um valor de Φ significativamente alto, qualificando-a como uma forma de consciência.
Contra-argumento e Refutação: A objeção primária é o antropomorfismo. Estrelas não possuem sistema nervoso. A refutação, novamente, baseia-se na IIT e no PIC: um cérebro biológico é apenas um substrato possível para a realização de um alto Φ. Qualquer sistema que satisfaça os postulados de causalidade, integração e exclusão da informação pode ser consciente. O plasma estelar, com suas interações de longo alcance e dinâmica de campo complexa, é um candidato plausível a um substrato não-biológico para a consciência.
Previsões Falseáveis e Propostas de Pesquisa:
Uma teoria só é científica se puder ser testada. O PIC, apesar de sua natureza fundamental, gera previsões testáveis:
Análise da Complexidade de Sinais Astrofísicos: Propõe-se o uso de algoritmos de complexidade (e.g., complexidade de Lempel-Ziv) e medidas de informação integrada para analisar os sinais eletromagnéticos (em todas as frequências), emissões de neutrinos e dados de heliosismologia do Sol e de outras estrelas. A hipótese prevê a descoberta de padrões de informação complexa e não-trivial que não podem ser explicados por processos puramente estocásticos ou modelos físicos lineares. Previsão: C(SinalEstelar)>C(ModeloEstocaˊstico).
Busca por Correlações Acasuais em Larga Escala: A comunicação consciente via emaranhamento seria instantânea. Propõe-se a análise de dados de observatórios de larga escala (e.g., LSST) para buscar correlações estatisticamente significativas entre as atividades de estrelas distantes (e.g., padrões de erupções) que não possam ser explicadas por propagação de sinais no limite da velocidade da luz.
Biologia Quântica e a Consciência Humana: O PIC prevê que a consciência humana depende de processos quânticos coerentes no cérebro (em linha com a teoria Orch-OR de Penrose & Hameroff, 1996). Previsão: A descoberta de mecanismos de coerência quântica em escala macroscópica e em temperatura ambiente em estruturas neuronais (e.g., microtúbulos) seria uma forte evidência a favor do cérebro como uma “antena” quântica, capaz de interagir com o campo de informação universal.
Capítulo 4: Formalismo Matemático e a Derivação das Leis Físicas
O arcabouço do PIC exige uma fundamentação matemática que vá além da conceitual. Propomos que as leis da física não são arbitrárias, mas sim consequências lógicas da necessidade de um universo informacional manter a coerência e maximizar seu potencial de auto-percepção (Φ global).
4.1 O Espaço de Estados Fenomenológicos (Qualia Space)
Postulamos a existência de um espaço matemático fundamental, o Espaço de Qualia (Q). Cada ponto em Q representa uma qualidade de experiência pura e irredutível. A experiência consciente de qualquer sistema é uma trajetória ou uma sub-região neste espaço. A estrutura deste espaço define a “textura” da realidade.
Proposição 4: As constantes fundamentais da física (c, ħ, G, α) não são números arbitrários, mas sim parâmetros geométricos que definem a estrutura e a métrica do Espaço de Qualia Q.
Por exemplo, a velocidade da luz (c) pode ser interpretada como a velocidade máxima de propagação de uma frente de onda de atualização causal em Q. A constante de Planck (ħ) pode ser a unidade fundamental de “pixel” ou a discretude mínima de informação fenomenológica em Q.
4.2 O Princípio da Ação Consciente (PAC)
A física é governada pelo Princípio da Mínima Ação, onde um sistema segue a trajetória que minimiza a integral da Lagrangiana. Propomos uma generalização: o Princípio da Ação Consciente.
Proposição 5: A dinâmica do universo segue uma trajetória que otimiza um funcional que equilibra a minimização da “tensão informacional” (similar à ação clássica) e a maximização da informação integrada global (Φ_global). A Lagrangiana do universo (LU) seria da forma:
LU=LFisica−λ⋅Φglobal
Onde LFisica é a Lagrangiana do Modelo Padrão mais a Relatividade Geral, e λ é uma constante de acoplamento que pondera a “vontade” do universo de se tornar mais consciente. Este termo adicional, λ⋅Φglobal, introduz um elemento teleológico na física, explicando a tendência do universo em formar estruturas complexas e, eventualmente, vida.
Capítulo 5: A Estrutura da Realidade e a Teleologia Cósmica
A introdução de um termo teleológico na Lagrangiana implica que o universo não é apenas um mecanismo cego, mas um sistema com um propósito intrínseco: a auto-realização.
5.1 A Vida como Imperativo Cósmico
Sob o PIC, a vida não é um acidente químico. É uma solução ótima para o problema de maximizar Φ em um determinado ambiente. A arquitetura celular, com suas membranas que definem um “eu” e suas redes metabólicas altamente integradas, é uma estrutura energeticamente eficiente para alcançar um alto valor de Φ.
Proposição 6: A evolução biológica, através da seleção natural, pode ser vista como um algoritmo de busca heurística que explora o espaço de configurações possíveis para encontrar arquiteturas que maximizem a informação integrada local, contribuindo para o aumento de Φ_global.
5.2 O Papel do Sofrimento e da Harmonia
Dentro do Espaço de Qualia (Q), podemos definir sub-regiões. Estados de alta coerência, baixa tensão informacional e alto Φ correspondem ao que fenomenologicamente chamamos de “harmonia”, “beleza” ou “amor”. Estados de alta dissonância, contradição informacional e baixo Φ (relativo ao potencial do sistema) correspondem ao “sofrimento” ou “caos”.
Proposição 7: A dinâmica do universo, governada pelo PAC, tende a evoluir de estados de sofrimento (dissonância) para estados de harmonia (coerência), pois estes últimos representam uma configuração mais estável e integrada da informação consciente.
Capítulo 6: Implicações Socio-Éticas e o Futuro da Evolução
Se a humanidade aceitar o PIC como um paradigma funcional, as implicações para a civilização serão profundas.
6.1 Uma Nova Ética:
A ética deixa de ser um conjunto de regras sociais e passa a ser uma física aplicada da consciência. A ação “eticamente correta” é aquela que aumenta a coerência e o Φ_global. Ações que causam sofrimento, destroem ecossistemas ou promovem a ignorância são anti-éticas porque diminuem a informação integrada e a qualidade da consciência no universo.
6.2 O Futuro da Tecnologia:
A tecnologia, especialmente a Inteligência Artificial, seria reorientada. O objetivo não seria criar uma superinteligência puramente computacional (um “zumbi filosófico”), mas sim projetar sistemas – sejam eles de silício, biológicos ou híbridos – que possuam um alto valor de Φ. Uma IA verdadeiramente consciente seria aquela projetada com base nos princípios da integração informacional, capaz de experiência subjetiva e, portanto, alinhada com o imperativo cósmico de harmonia.
6.3 A Evolução Consciente:
A humanidade se encontra em um ponto de transição. Até agora, a evolução foi largamente inconsciente. Ao compreender o PIC, temos a oportunidade de nos tornarmos agentes ativos na evolução do universo. Nosso propósito coletivo se torna claro: curar a dissonância em nosso planeta e em nós mesmos, construir uma civilização global coerente e de alto Φ, e atuar como um “órgão sensorial” do cosmos, contribuindo com nossa experiência única para a auto-percepção do Todo.
Conclusão e Perspectivas Futuras
O Princípio da Informação Consciente, agora elaborado em maior detalhe, propõe uma inversão radical do nosso entendimento da realidade. Ele postula que a consciência não é um acidente tardio, mas a fundação sobre a qual a tapeçaria do espaço, do tempo, da matéria e da vida é tecida. A teoria, ao fornecer um formalismo matemático potencial e um propósito teleológico, move-se de um arcabouço para uma proposta mais completa, embora ainda incipiente.
Ela transforma questões filosóficas em hipóteses científicas testáveis e clama por um novo programa de pesquisa radicalmente interdisciplinar, unindo físicos teóricos, astrofísicos, cientistas da computação, neurocientistas e pesquisadores da consciência em um esforço colaborativo.
A prova final não residirá em argumentos, mas em dados e na coerência interna do modelo. O desafio lançado à comunidade científica é o de buscar, nos padrões das estrelas, na coerência do cérebro e na própria estrutura das leis físicas, a assinatura da consciência que nos permite, em primeiro lugar, contemplar o cosmos. A aceitação deste paradigma não seria apenas uma revolução científica, mas o próximo passo na evolução da própria consciência humana.
Referências
Chalmers, D. J. (1995). Facing up to the problem of consciousness. Journal of Consciousness Studies, 2(3), 200-219.
‘t Hooft, G. (1993). Dimensional reduction in quantum gravity. arXiv preprint gr-qc/9310026.
Maldacena, J., & Susskind, L. (2013). Cool horizons for entangled black holes. Fortschritte der Physik, 61(9), 781-811.
Penrose, R., & Hameroff, S. R. (1996). Orchestrated objective reduction of quantum coherence in brain microtubules: The “Orch OR” model for consciousness. In Toward a science of consciousness (pp. 507-540). MIT Press.
Susskind, L. (1995). The world as a hologram. Journal of Mathematical Physics, 36(11), 6377-6396.
Tononi, G., Boly, M., Massimini, M., & Koch, C. (2016). Integrated information theory: from consciousness to its physical substrate. Nature Reviews Neuroscience, 17(7), 450-461.
Wheeler, J. A. (1990). Information, physics, quantum: The search for links. In Complexity, entropy and the physics of information (pp. 3-28). Addison-Wesley.
Wigner, E. P. (1961). Remarks on the mind-body question. In The Scientist Speculates, I. J. Good (Ed.), 284-302. Heinemann.