Complexidade assombrosa |
Aquele
que disse que o cérebro humano é a porção de matéria mais altamente organizada
do universo estava mais correto do que imaginava. Uma nova pesquisa modelou
minúsculas estruturas de células nervosas e descobriu uma tática esperta que os
cérebros utilizam para aumentar seu poder de computação, ao mesmo tempo em que
maximizam a eficiência energética. Seu design poderia
formar a base de toda uma nova e melhorada classe de computadores. Neurobiólogos
do Salk Institute of La Jolla, Califórnia, e da University of Texas, Austin,
desenvolveram modelos computacionais 3D que simulam seções minúsculas de
hipocampos de ratos – região do cérebro de mamíferos em que os neurônios
constantemente processam e armazenam recordações. Um dos modelos, publicado no
jornal de biologia eLife, ajudou
a revelar que as dimensões das sinapses mudam em questão de minutos.[1]
Sinapses
ocorrem em junções de células nervosas, como “duas pessoas de mãos dadas”. Cada
célula pode ter milhares de “mãos” em contato, tanto quanto vizinhos que formam
uma rede 3D com bilhões de conexões e vias. Cada junção transfere informação
entre células através de minúsculas substâncias químicas, chamadas
neurotransmissores.
Imagens
inovadoras publicadas em 2011 revelaram muitas outras dessas conexões de tipo
nervo-a-nervo nunca antes imaginadas, incitando comparações entre o cérebro humano
e o número de interruptores em todos os computadores e conexões à internet da
Terra.[2] Os tamanhos desses pontos de conexão, chamados sinapses, comutam com
o uso ou desuso – processo este chamado plasticidade sináptica. Sinapses se
intensificam quando ocorre um aprendizado ou atenuam quando não utilizadas.
Como
os cérebros fazem isso? Eles não armazenam e transmitem informação com os
simples 0 e 1 dos códigos computacionais, mas com graus de intensidade de
sinapses. Em outras palavras, eles não transferem informação com um único
impulso por vez, mas reconhecem 26 níveis diferentes de intensidade sináptica.
Os autores da nova pesquisa observaram possíveis vantagens nessa complicada
variabilidade molecular. Eles escreveram que sinapses “podem refletir uma
estratégia amostral concebida [designed]
para a eficiência energética”.[1] Células nervosas usam o tamanho e a estabilidade
de cada sinapse para processar e registrar informações como fazem as memórias
[de computador].
Noutra
pesquisa, publicada na Nature
Communications, foi descoberto que a comunicação bioquímica dentro de cada
sinapse faz o monitoramento e os ajustes constantes da plasticidade
sináptica.[3] Esse “mecanismo habilitador de plasticidade” inclui loops de feedback positivo e um mecanismo de segurança para prevenção da
morte da célula, conforme o sumário de uma pesquisa publicada na Nature por Christine Gee e Thomas
Oertner, do Center of Molecular Neurobiology Hamburg.[4]
Terry
Sejnowski, autor co-senior do estudo publicado pela eLife, reportou ao Salk Institute:
“Descobrimos
a chave para desvendar o princípio construtivo [design principle] de como os neurônios hipocampais funcionam com
baixo consumo de energia, porém com alta potência computacional. Nossas novas
medições de capacidade da memória cerebral aumentam estimativas conservadoras
por um fator de 10, para, pelo menos, um petabyte, no mesmo patamar da World
Wide Web.”[5]
O
que é um petabyte? 8.000.000.000.000.000 de bits de informação. Os níveis
alucinantes de organização e protocolos regulatórios necessários das sinapses
refutam todas as noções de que cérebros possam ter evoluído de simples células
através de meros processos naturais. As estratégias, os algoritmos e princípios
construtivos empregados pelo cérebro poderiam somente ter surgido por obra de
um Arquiteto transcendental, cujo conhecimento a humanidade só pode sonhar em
copiar.
(Traduzido e adaptado de
Brian Thomas, ICR)
Referências:
[1]
Bartol Jr., T. M. et al. 2015. “Nanoconnectomic
upper bound on the variability of synaptic plasticity.” eLife. 10.7554/eLife.10778.
[2] Thomas, B. “Brain’s
Complexity ‘Is Beyond Anything Imagined’” (http://www.icr.org/article/5877/293/). Creation Science Update. Posted on
icr.org January 17, 2011, accessed January 20, 2016.
[3]
Tigaret, C. M. et al. 2016. “Coordinated
activation of distinct Ca2+ sources and metabotropic glutamate receptors
encodes Hebbian synaptic plasticity.” Nature
Communications. 7: 10289.
[4]
Gee, C. E. and T. G. Oertner, 2016. “Pull out the stops for plasticity.” Nature.
529 (7585): 164-165.
[5] “Memory capacity of brain
is 10 times more than previously thought” (http://www.salk.edu/news-release/memory-capacity-of-brain-is-10-times-more-than-previously-thought/). Salk
News.
Posted on salk.edu January 20, 2016, accessed January 20, 2016.
[6]
“The new work also answers a longstanding question as to how the brain is so
energy efficient and could help engineers build computers that are incredibly
powerful but also conserve energy” (Salk
News).
Nota do blog Engenharia Filosófica: “Passou
da hora de biólogos evolucionistas (os sensatos não precisam) terem aulas de
sistemas digitais e microprocessadores em turmas de engenharia, ciência da
computação e tecnologia da informação. Quem sabe, então, a teoria da evolução seja
finalmente enterrada. Até lá, estudos como esse apenas servem para apoiar vídeos como este.”