A novíssima Genômica de Materiais

Um fato bem conhecido na ciência é que ela sempre evolui agregando novos conhecimentos ou novas “verdades” com o passar do tempo. Em especial, na Ciência de Materiais isso significa que sempre estaremos descobrindo novos materiais, novos fenômenos emergentes, novas teorias e novas técnicas experimentais para analisar todo esse conteúdo. Como exemplos, isso pode ser visto nos últimos anos através da descoberta de materiais como o grafeno (em 2004/2005), os supercondutores baseados em ferro (em 2006), ou os isolantes topológicos (2005/2006). Quanto a novas teorias ou fenômenos emergentes, alguns exemplos recentes incluem os férmions de Majorana (em 2008) em interfaces isolantes topológicos/supercondutores, e a caloritrônica de spin (em 2012).

Essas descobertas estão aos poucos enriquecendo nosso arcabouço teórico sobre os materiais e estão ajudando o desenvolvimento de novos dispositivos e novas tecnologias que estão sendo aos poucos incorporadas nas nossas vidas. Por exemplo, a revolução causada pela tecnologia dos dispositivos semicondutores a partir da década de 70 não somente criou um mercado bilionário (talvez trilionário) como também afetou a nossa cultura e a forma que enxergamos a nossa sociedade. Revoluções de novos materiais também incluem novas tecnologias para o mercado de energias renováveis e de novos fármacos.

A cada dia que passa estamos cada vez mais interessados em novas tecnologias, tanto que podemos dizer que nunca fomos tão dependentes de tecnologias modernas como atualmente. Embora a evolução de novas tecnologias aparentem evoluir em um ritmo adequado, há meios de fazer essa evolução ser acelerada. O “problema” dessas revoluções de materiais recentes é que o tempo entre a descoberta de um novo material até a incorporação na indústria para novas tecnologias podem levar até 20 anos. Nesse período se inclui as fases:

  1. descoberta;
  2. desenvolvimento;
  3. otimização de propriedades;
  4. design de sistemas e integrações;
  5. certificações;
  6. manufaturação;
  7. disponibilização no mercado.

Todos esses processos poderiam ser acelerados se mudarmos a nossa abordagem no estudo de materiais. Uma nova proposta de abordagem para realizar tal aceleração é fornecida pela Genômica de Materiais. A nova ciência que estuda o Genoma dos Materiais.

Genoma dos materiais

Na genética, o genoma é o conjunto de informações codificadas que guiam o crescimento e desenvolvimento dos seres vivos. No contexto não-genético, consiste na informação codificada de uma proposta maior (projeto) em um banco de dados gigante formado por toda a informação disponível para esse fim. Dois exemplos desse “genoma não-genético” incluem o conectoma, que contém o mapeamento de redes neurais no sistema nervoso; e o genoma de materiais, que contém o mapeamento de fenômenos, fases ou efeitos físicos na miríade de materiais com estruturas atômicas conhecidas.

Visualição do genoma humano em "circos".

Fig. 1. Representação gráfica do genoma humano. Na borda do círculo estão os cromossomos 1..22, X e Y. Doenças genéticas são representadas como ligações em cinza, enquanto graus de semelhanças entre populações como ligações coloridas. (Clique na figura para ver com zoom).

A genômica de materiais nasceu com o objetivo de pelo menos dobrar a velocidade que um material evolui da fase de descoberta até a sua incorporação na tecnologia comercial, mas antes de tudo podemos dizer que ela nasceu do aproveitamento das novas técnicas de obtenção e análise de dados que surgiram durante o “Projeto Genoma Humano” (representado na Fig. 1). Se o primeiro genoma humano demorou uma década para ser identificado e mapeado, hoje tal feito pode ser realizado em apenas uma semana, e isso não se deve apenas ao progresso da computação de alto desempenho, mas também pela experiência adquirida no mapeamento de todo esses dados.

Iniciativa do Genoma dos Materiais

Em junho de 2011, em um documento publicado pela Casa Branca, os Estados Unidos lançou uma iniciativa de financiamento de pesquisas em genômica de materiais chamada “Materials Genome Initiative” (GMI) que tenham como objetivos desenvolvimentos em: segurança nacional, saúde e bem-estar, e energias limpas (como mostrado na Fig. 2). As pesquisas de novos materiais para esses fins, realizadas no contexto da genômica de materiais, contariam com um fundo federal especial de até US$ 100 milhões, através do National Science Foundation (NSF) e Department of Energy (DOE).

Fig 2. Infográfico do Materials Genome Initiative.

Fig 2. Infográfico do Materials Genome Initiative. (Clique na figura para ver com zoom).

Para alcançar os seus objetivos serão necessários desenvolvimentos em alguns aspectos da pesquisa científica, como novas ferramentas computacionais para modelagem preditiva, simulações, e design de materiais; novas ferramentas experimentais para caracterização e análise de materiais que acelerem os testes e o desenvolvimento de protótipos; novos processamentos e minerações de dados digitais; e novas redes colaborativas abertas para compartilhamento de dados, experimentos e material educacional no tema.

Genômica de materiais computacional

Na parte dos aspectos computacionais da genômica de materiais, devemos destacar que ela é baseada em ferramentas computacionais livres e colaborativas entre várias universidades, empresas e indústrias. Ao contrário dos pacotes de simulações bem conhecidos na academia (VASP, ABINIT, Quantum Espresso, …), essas ferramentas não seriam relacionadas apenas a um grupo de pesquisa, e sim a toda iniciativa da genômica de materiais. Essa abertura e transparência permitiria um compartilhamento de dados de simulações teóricas com pesquisas experimentais e industriais que acelerariam todo o processo de pesquisa dos materiais. Além dessa acessabilidade e transparência, os códigos computacionais dessa iniciativa deverão apresentar escalabilidade para solucionar problemas em escala industrial. Também seriam necessários interfaces amigáveis e documentações detalhadas para garantir o acesso do código desde a academia até a indústria.

Big data e Modelos de busca

A utilização das ferramentas computacionais dessa iniciativa deveriam partir de um banco de dados com propriedades físicas (eletrônicas, magnéticas, térmicas, …) de vários materiais e efetuar um modelo de busca através das propriedades desejáveis a priori.

Como exemplo de aplicação dessa abordagem da genômica de materiais, um grupo de pesquisa do Center of Materials Genomics da Duke University desenvolveu um modelo de busca de materiais isolantes topológicos com o banco de dados AFLOWLIB (mantido pelo mesmo grupo de pesquisa em colaboração com o Office of Naval Research da Marinha Americana). O resultado desse trabalho foi a identificação de uma só vez de 28 materiais isolantes topológicos em 5 tipos diferentes de simetrias [ver link]. Embora o modelo de busca seja bastante simples, e o banco de dados relativamente “pequeno” (da ordem de 15000 materiais), ele pode ser considerado com um dos primeiros resultados dessa nova ciência. Modelos mais sofisticados e banco de dados mais completos poderão fornecer os resultados desejáveis pela iniciativa da Casa Branca.

Esse banco de dados seria formado pelas propriedades físicas calculadas através de cálculos de primeiros princípios com códigos como VASP, ABINIT, ou Quantum Espresso, de centenas de milhares (ou milhões) de materiais. O tamanho memorável desse banco de dados, com vários Terabytes ou Petabytes, exigiriam técnicas de mineração de dados como o “Big Data“. Esse tipo de mineração de dados já vem sendo aplicado em algumas áreas do conhecimento como finanças, meteorologia, genômica e tecnologia de informação (ver Fig. 3.), e seria adaptada para a pesquisa em novos materiais.

Fig. 3. Visualização de edições da Wikipedia criada pela IBM. A escala de cores descreve o volume de dados em múltiplos de Terabytes.

Fig. 3. Visualização de edições da Wikipedia criada pela IBM. A escala de cores descreve o volume de dados em múltiplos de Terabytes.

Além do projeto AFLOWLIB da Duke University, outro projeto é o “Materials Project – A Materials Genome Approach” fundado pelo MIT e pelo Lawrence Berkeley National Laboratory (LBNL). Esse projeto desenvolveu o código computacional PyMatGen para cálculos em genômica de materiais. Um dos focos desse códigos é a pesquisa de novos materiais para baterias, que estariam relacionadas com a vertente de energias limpas do Genome Materials Initiative.

Outros projetos devem ser iniciados pelo mundo, mas por enquanto poucos grupos de pesquisas e pesquisadores embarcaram nessa ideia. No Brasil ainda não vi nenhuma iniciativa semelhante  ao GMI da Casa Branca, mas espero que não fiquemos muito atrás e lancemos algo do tipo o mais rápido possível.

Minorias e suas representatividades

A sociedade como conhecemos hoje nunca foi, não é, e nunca será homogênea. Sempre haverá grupos majoritários e grupos minoritários quanto a ideologias, religiões, gênero, cores, orientações sexuais e outros aspectos diferenciadores. E quando estamos falando de minorias, nem sempre é algo que possa ser medido por uma simples contagem numérica, é algo “sociológico”. Mesmos grupos com superioridades numéricas podem ter pouca representatividade política, econômica ou artística nos meios de comunicação. Até poderiamos medir essa representatividade quantitativamente, mas isso com certeza não seria algo uniparamétrico.

Dados grupos majoritários em regimes democráticos (ou até mesmo autoritários), é esperado que seus representantes pertaçam a esses grupos. Com isso, em alguns momentos, o poder político adquirido por esses grupos acabam sendo suficientes para se voltar contra os grupos minoritários. Alguns exemplos relativamente recentes incluem: holocausto na Alemanha nazista, Apartheid na África do Sul,  e Segregação racial no EUA até a Lei de Direitos Civis de 1964. Nesses casos, todas as perdas de direitos das minorias foram feitas por governantes eleitos pelo povo, ou seja, escolhidos pela maioria.

Entre os grupos minoritários que vem sofrendo discriminações por grupos majoritários estão: as mulheres, os negros, e mais recentemente os homossexuais. Embora no Brasil as mulheres tenham mais ou menos os mesmos direitos que os homens, deve-se lembrar que isso nem sempre foi assim. Também devemos lembrar que em alguns países islâmicos as mulheres ainda não tem direitos básicos como votar ou dirigir carros. Mesmo possuindo porcentagens significativas nas populações nesses países, as mulheres ainda podem ser reconhecidas como minorias discrimidadas. Outro caso são os dos negros. Provavelmente nenhum outro grupo minoritário sofreu tanta discriminação quanto eles. Entre os atos discriminatórios houveram escravaturas, massacres, holocausto, e segregações raciais. Alguns casos nos remete a tempos recentes, com o Apartheid na África do Sul que durou até meados de 1994. Os casos mais recentes de discriminação e disputas políticas envolvendo minorias estão relacionados aos homossexuais. Esse grupo minoritário vem sofrendo ataques discriminatórios principalmente de grupos religiosos conservadores. No Brasil, os principais atos de discriminação vem sendo efetuados por representantes religiosos (pastores) de Igrejas Protestantes Pentecostais.

Com o intuito de proteger as minorias de discriminações, foram criadas Comissões de Direitos Humanos em alguns estabelecimentos políticos, como Senado, Câmara de Deputados e Ordem de Advogados. Todas essas comissões tiveram (ou deveriam ter) como base a Declaração Universal dos Direitos Humanos (DUDH) adotado pela Organizações das Nações Unidas (ONU) em 1948.

Embora algumas Comissões de Direitos Humanos tenham sobrevividos aos trancos e barrancos, e também em um quase “anonimato”, infelizes ocorrências despertaram o interesse do público para uma dessa comissões. Em uma fatídica quinta-feira, 7 de março de 2013, ocorreu uma eleição a portas fechadas para instituir o Deputado Pastor Marco Feliciano como presidente da Comissão de Direitos Humanos e Minorias da Câmara dos Deputados do Brasil (CDHM). Um deputado com histórico de discurso de ódio e preconceito contra mulheres, negros, homossexuais e diversos grupos artísticos e religiosos. Sob muitos protestos contrários a sua eleição, ele foi “legitimado” pela Câmara dos Deputados, e continua atuando ou tentando atuar nesse cargo até hoje. Um capítulo manchado na história brasileira que vamos lembrar com muita tristeza até o erro ser reparado.

O principal problema na eleição do Deputado Marco Feliciano deve ser atribuido ao seu discurso contrário ao casamento homoafetivo que vem sendo reconhecido pela sociedade, e principalmente pelas principais nações democráticas do mundo. Tal discurso de ódio proferido aos homossexuais devem influenciar (e barrar) um projeto de lei para reconhecimento de casamento homoafetivo no Brasil, conhecido como PLC 5120-2013. Leis semelhantes foram recentemente aprovadas em países como França, Uruguai e Nova Zelândia. Todo isso por causa de doutrinas religiosas de alguns indivíduos que querem interferir nos direitos legais de outros indivíduos.

Ora, se a sua religião não permite comer carne suína (como judeus e muçulmanos), então não coma, mas não privem os outros do direito de comerem. Se a sua religião não permite doar sangue (como testemunhas de Jeová), então não doe, mas não privem os outros do direito de doar sangue. E finalmente, se a sua religião não permite casamento gay, então não case com alguém do seu sexo, mas não privem os outros do direito de casar. Devemos sempre lembrar que podemos ser minorias sob algum outro contexto ou em algum outro lugar, e que nesses casos vamos sempre querer mecanismo de proteção e representatividade política para que nós não soframos discriminações pelos nossos aspectos genéticos ou opcionais.

A Alvorada do Siliceno e Germaneno

Desde 2004 o grafeno tem chamado bastante atenção na comunidade científica devido aos seus novos fenômenos e possíveis novas aplicações tecnológicas, que vão desde nanotransistores, nanodispositivos spintrônicos, aplicações biomédicas, até plataforma de simulação de sistemas análogos da Física de Altas Energias.

O grafeno também foi usado como base para a teoria de isolantes topológicos, com os artigos seminais do Kane e Mele [Quantum Spin Hall Effect in Graphene] e [Z2 Topological Order and the Quantum Spin Hall Effect]. Embora tenha dado a inspiração inicial, o grafeno possui acoplamento spin-órbita muito pequeno, tornando-o inviável para o estudo dessa nova fase eletrônica topológica, e consequentemente, medições dos estados de bordas características dessa fase.

Esse cenário mudou em 2010 com a observação experimental do Siliceno [Graphene-like silicon nanoribbons on Ag(110): A possible formation of silicene] e [Epitaxial growth of a silicene sheet], e agora em 2013 com o Germaneno. Esses novos materiais 2D apresentam estrutura cristalina hexagonal parecida com o grafeno, mas com uma pequena deformação na direção perpendicular ao plano. Esse deformação (ou buckling) pode ser visto na figura abaixo.

Silicene_Cluster

Estrutura da monocamada de siliceno (ou germaneno).

Esses novos materiais apresentam acoplamentos spin-órbitas bem maiores que o grafeno, tornando até possível a observação de fases isolantes topológicas em baixas temperaturas para o siliceno, ou “temperaturas ambientes” para o germaneno. Com esses materiais, estão surgindo novas esperanças de possíveis novas aplicações tecnológicas, em especial novos dispositivos spintrônicos, já que eles agregam polarizações de spin não-triviais (texturas de spin) que poderiam ser controladas com a aplicação de um campo elétrico externo, e altas mobilidades para elétrons e buracos que são essenciais nos novos transistores.

As pesquisas físicas e tecnológicas com o grafeno e com os isolantes topológicos “tradicionais” (Bi2Se3, Bi2Te3, Sb2Te3) ainda continuam de vento em popa, mas o surgimento desses novos materiais devem abrir uma janela e dar “luz” para todos esses materiais citados.

Um pouco de Spin e Spintrônica

Spin não é um conceito tão básico e tão familiar para a maioria das pessoas. Embora ele seja apresentado nas primeiras aulas de Química do Ensino Médio, a maioria dos alunos não devem entender muito bem o que ele significa a primeira vista.

É divulgado errôneamente que spin é o momento angular do giro do elétron sobre o próprio eixo. Na verdade o nome spin viria desse “giro”. Entretanto foi visto que o spin como uma rotação criaria algumas contradições com outros conceitos bem mais estabelecidos e mais testados. A partir daí, o conceito de spin foi adaptado e visto como uma propriedade intrínseca das partículas. Algumas partículas tem massa, outras não. Algumas partículas tem carga elétrica, outras não. Da mesma forma dizemos, algumas partículas tem spin, outras não. O spin, assim como massa e carga elétrica são propriedades fundamentais das partículas, não são derivados de outros conceitos fundamentais.

Outra coisa é que diferente da massa e da carga elétrica, o spin é uma grandeza vetorial. Para especificá-lo é necessário dizer em qual direção ele está “apontando”.

O problema (só é problema para algumas pessoas) é que não há análogos clássicos para o spin. Você pode medir a massa e a carga elétrica de um objeto macroscópico, mas não dá pra medir o spin de um objeto grande. Apenas é possível medir isso em objetos microscópicos. Mas tamanho não é documento. Além disso, a descrição quantitativa da Natureza não depende de conceitos serem parte do senso comum. O spin é uma dessas coisas que não fazem parte do senso comum.

O spin também apresenta algumas propriedades interessantes, e deve desempenhar um grande papel no desenvolvimento tecnológico nos próximos anos. A (micro)eletrônica atual é baseada no transporte de cargas elétricas nos dispositivos, formando uma corrente elétrica que pode carregar informação (clássica). Mas além de carga elétrica, os elétrons também possui o spin, e ele pode ser usado para transportar informação como as cargas elétricas. Esta área da eletrônica é chamada de spintrônica (eletrônica baseada no spin).

Alguns problemas surgem na hora de criar um dispositivo spintrônico. Se conhece bem metais ferromagnéticos (ou com outras ordens magnéticas),mas se conhece pouco sobre semicondutores com magnetismo. O que se faz é criar o que se chamam de semicondutores magnéticos diluídos, isto é, semicondutores dopados com (um pouquinho de) átomos magnéticos como níquel, cobalto, ferro, manganês ou cromo, que podem apresentar ordens magnéticas. Um exemplo de semicondutor magnético diluído é o óxido de zinco dopado com cobalto (ZnO:Co). Há alguns desenvolvimentos nesta área de spintrônica de semicondutores, mas ainda vai demorar um tempinho até estes dispositivos chegarem ao mercado.

Além disso, para inverter a direção de um spin com um campo elétrico é necessário um grande acoplamento spin-órbita, e poucos materiais podem apresentar isso. Em especial, foi visto que alguns desses semicondutores com grande acoplamento spin-órbita formar uma nova classe de materiais, os Isolantes Topológicos, mas isso é assunto para outro post.

Aceleração do universo e o prêmio Nobel

Domingo eu adiantei alguns nomes dos candidatos ao prêmio Nobel de Física de 2011. Ontem, 4 de outubro, saiu o resultado e os premiados foram Saul Perlmutter, Adam Riess e Brian Schmidt, pela descoberta da expansão acelerada do universo através da observação de supernovas distantes. O tema “expansão acelerada do universo” estava na minha lista e eu mencionei o Saul Perlmutter e o Adam Riess como autores da descoberta, esqueci (na verdade não sabia) da participação do Brian Schmidt na colaboração.

Há muito tempo sabe-se que o universo está em expansão. Desde as medidas de velocidades das galáxias feitas pelo Edwin Hubble na década de 30 do século passado sabe-se disso. O modelo de expansão do universo como é conhecido hoje foi criado por quatro pessoas, Alexander Friedman, Georges Lemaître, Howard Robertson e Arthur Walker, o modelo FLRW. Este modelo seria (infelizmente) rebatizado mais tarde como “Big Bang” por Fred Boyle.

Acontece que se você colocar somente a matéria que podemos observar no universo (matéria ordinária) no modelo FLWR, o universo poderá se expandir, mas de forma desacelerada. Para entender isso basta lembrar que a força gravitacional é sempre atrativa e essa atração causaria uma desaceleração na expansão do universo.

Embora os físicos achassem que o universo estava desacelerando, não existiam medidas para confirmar esta desaceleração. Para isto precisavam medir as velocidades e as distâncias de objetos muito distantes “far far away”. Galáxias próximas não dariam este tipo de informação. As velocidades dos objetos distantes (galáxias, supernovas, etc) poderiam ser medidas da forma padrão, através do redshift, o desvio para o vermelho da radiação (luz) emitida por estes objetos. As medidas das distâncias neste caso seriam mais complicadas. Os métodos padrões baseados em triangulações ou paralaxes não dão bons resultados para distâncias tão grandes. Então, como fazer para medir distâncias tão longas? Uma resposta rápida seria através da intensidade do brilho desses objetos distantes, quanto maior a distância, menor o brilho. Mas mesmo assim o problema ainda não foi resolvido completamente, já que um brilho menor pode significar que o objeto está mais distante, mas também pode significar que o objeto seja menor (Claro!). Isto foi solucionado utilizando as “velas-padrão”.

Existe um tipo específico de supernova, o tipo Ia (lê-se um A) que tem um brilho bem específico, isto é, todas as supernovas deste tipo têm praticamente o mesmo brilho, por isso são chamadas de vale-padrão. Se você achar várias supernovas Ia e medir o seu brilho, você pode dizer as distâncias delas. Juntando isso com as medidas de redshift pode-se medir a expansão do universo em vários momentos e calcular a desaceleração do universo. Em 1999 dois grupos distintos fizeram isso, o grupo do Saul Perlmutter e o grupo do Adam Riess e Brian Schmidt. Eles encontraram que a desaceleração do universo era negativa, isto é, o universo estava na verdade se expandindo de forma acelerada. Esta descoberta mudou radicalmente a forma que conhecemos para expansão do universo. A partir desta descoberta foi proposta a existência de algo além da matéria ordinária contribuindo para esta expansão. O “algo mais” foi batizado de energia escura. Embora não se saiba o que realmente seja esta energia escura, sabemos as conseqüências dela na expansão do universo. Também sabemos que existe muito mais energia escura do que matéria. A caracterização microscópica disto pode levar muito mais tempo, mas a descoberta da aceleração do universo em si merece ser premiada. O prêmio do Perlmutter, Riess e Schmidt, assim como o do ano passado, foi bem merecido.

Alguns candidatos ao Prêmio Nobel de Física

No dia 4 de outubro deve sair o resultado do Prêmio Nobel de Física de 2011, e eu vou tentar expor aqui os nomes de alguns físicos com maiores probabilidades de ganhar este prêmio. A minha lista é formada por uma opinião pessoal, não tem nenhum caráter oficial, e é em parte baseada pelos prêmios anteriores concedidos aos físicos da lista. Prêmios como, Prêmio Wolf, Medalha Lorentz, Medalha Dirac ou Prêmio Sakurai. Com isto, a minha tarefa de “adivinhação” torna-se um pouco mais fácil, e é possível fazer uma pequena lista do que eu acho que são os candidatos mais prováveis. Os candidatos mais “fortes” são:

  • Alain Aspect, Anton Zeilinger e John Clauser

“Pelos trabalhos em informação, computação e teleportação quântica”

Esses físicos já ganharam o Prêmio Wolf de Física em 2010, e podem ser considerados como alguns dos nomes mais prováveis. O Anton Zeilinger foi o criador da teleportação quântica de fótons em 1998. O Alain Aspect foi o criador do experimento de teste de Bell, que mudaram a forma que vemos a Mecânica quântica. Enquanto que o John Clauser fez alguns trabalhos fundamentais na Teoria da Informação Quântica, como as desigualdades CHSH.

  • Vera Rubin e Dennis Zaritsky

“Pelos trabalhos pioneiros da medição das rotações das galáxias e matéria escura”

Os trabalhos da Vera Rubin deram origem ao Problema de Rotações das Galáxias, que foi o principal motivo da criação da Matéria Escura. E a principal confirmação da Matéria Escura foi feita a partir de dados de colisão de “Bullet Cluster” do grupo do Dennis Zaritsky.

  • Adam Riess e Saul Perlmutter

“Pela descoberta da aceleração do universo”

A aceleração do universo foi descoberta me 1999 por dois grupos distintos, um do Adam Riess e outro do Saul Perlmutter. A partir desta descoberta foi criada a hipótese da existência da Energia Escura (Não há relação entre a energia escura e a matéria escura).

  • Michael Berry e Yakir Aharonov

“Pelos trabalhos fundamentais do papel da geometria e topologia na Mecânica Quântica”

O Michael Berry foi o criador das fases geométrica (hoje conhecida como Fases de Berry), que são importantes para a descrição de fenômenos quânticos como polarização elétrica de materiais ferroelétricos, caracterização topológica de defeitos e de estrutura eletrônica de alguns materiais. O Yakir Aharonov foi um dos criadores do efeito Aharonov-Bohm, que mudaram a forma que vemos os potenciais escalares e vetoriais da eletrodinâmica clássica. Ambos ganharam o Prêmio Wolf de Física de 1998, e ainda tem grandes chances de ganhar o Prêmio Nobel de Física.

  • Stephen Hawking e Roger Penrose

“Pelos trabalhos pioneiros na Física de Buracos Negros”


O Stephen Hawking ficou famoso pelos seus estudos sobre Buracos Negros, principalmente pela radiação emitida pelos Buracos Negros que leva o seu nome (Radiação Hawking). O Roger Penrose também fez grandes contribuições no estudo de Buracos Negros, principalmente sobre singularidades e censura cósmica. Ambos receberam o Prêmio Wolf de Física de 1988, além de vários outros prêmios.

  • Don Eigler

“Pela manipulação individual de átomos”

O Don Eigler foi o criador da manipulação individual de átomos em 1989. A partir desta técnica ele foi o responsável pela inscrição do nome IBM com apenas 35 átomos, e pela criação do “curral quântico”. Ele recebeu o Prêmio Kavli de Nanociência de 2010.

  • Mark Ratner e Ari Aviram

“Pelos trabalhos pioneiros em Eletrônica Molecular”

Mark Ratner e Ari Aviram foi os responsáveis pela criação dos retificadores unimoleculares em 1974. O estudo do transporte eletrônico em uma única molécula deu origem à Eletrônica Molecular, e foi fundamental para o desenvolvimento da Nanoeletrônica.

  • Charles Kane e Eugene Mele

“Pela descoberta dos Isolantes Topológicos”

Os Isolantes Topológicos foram previstos pelo Charles Kane e Eugene Mele em 2005, e descoberto experimentalmente em 2007. Apesar de ser um material “novo”, ele tem sido bastante estudado para o desenvolvimento de dispositivos spintrônicos e para informação quântica. Embora seja um pouco cedo para premiar os descobridores deste material, eles devem aparecer como candidatos fortes em alguns anos.
Além dos citados nesta pequena lista, alguns candidatos que eu acho que tem probabilidades pouco menores que os oito da listas estão: Sumio Iijima (Nanotubos de carbono), Hideo Hosono (Supercondutores baseados em Ferro), Victor Veselago (Metamateriais), Julius Wess e Bruno Zumino (Supersimetria), e Nathan Seiberg e Edward Witten (Supercordas). Entretanto, esses nomes não podem ser descartados nesta tarefa de “adivinhação”.

Um é bom, mas dois pode ser melhor

Desde que foi criado pela primeira vez, em 2004, o grafeno tem despertado o interesse da comunidade científica para sua aplicação no desenvolvimento de dispositivos nanoeletrônicos. Já no artigo da criação do grafeno, Novoselov e Geim chamaram a atenção para o efeito de campo elétrico aplicado, que poderia ser útil na criação de transistores de efeito de campo (FET). Entretanto, para a criação deste tipo de transistor é necessário que existam dois estados de condução no material. Um estado condutor que poderia criar o bit “1”, e outro estado não-condutor que poderia criar o bit “0”. O grafeno tem propriedades eletrônicas de um condutor como um metal, mas não tem o estado não-condutor mencionado antes. Para criar estes estados é necessário fazer algumas modificações no grafeno.
O grafeno é formado por uma rede hexagonal de átomos de carbono. Esta rede hexagonal é na verdade uma rede triangular (rede de Bravais) com dois átomos de carbono na base. Cada átomo da base forma uma sub-rede triangular que eu vou chamar de sub-rede A e sub-rede B. A natureza metálica do grafeno está ligado à simetria entre as sub-redes A e B. Se você trocar os átomos de carbono da sub-rede A por boro, e os átomos de carbono da sub-rede B por nitrogênio, o material se tornará isolante e não vai conduzir corrente elétrica quando estiver sob tensões. O mesmo acontece se você por um átomo de hidrogênio “em cima” dos átomos de carbono da sub-rede A, e “em baixo” dos átomos de carbono da sub-rede B. O material também se tornará isolante.
Nestes materiais, o h-BN (nitreto de boro hexagonal) e o grafano (grafeno hidrogenado) há o problema inverso do grafeno. Os materiais são isolantes e não tem um estado de condução para formar o bit “1”. É de nosso interesse a existência de um material que os estados condutores e não-condutores sejam manipuláveis.
Uma possível solução para este problema surgiu no estudo das bicamadas de grafeno. Assim como o grafeno, as bicamadas de grafeno também são metálicas e podem gerar os bits “1” através disso. Neste caso, a natureza metálica deste material está ligada à simetria entre camadas. Se esta simetria for quebrada, o material se tornará um isolante e não deixará passar corrente elétrica. Uma quebra de simetria deste tipo é obtida aplicando um campo elétrico perpendicular ao plano do material. Este campo elétrico fará com que o potencial elétrico em uma camada seja diferente da outra camada, quebrando a simetria como desejávamos.

Estrutura cristalina da bicamada de grafeno.

Assim, podemos pensar em um dispositivo formado por bicamadas de grafeno com um potencial de gate para o chaveamento da corrente elétrica. Quando o potencial de gate está desligado o material passa corrente e forma o bit “1”, enquanto que quando o potencial de gate está ligado o material não passa corrente e forma o bit “0”.
Várias outras propostas estão surgindo para transistores baseados em grafeno, algumas delas utilizando transporte de spin (spintrônica), ao invés de carga elétrica. Ainda não dá pra adiantar qual tipo de transistor de grafeno será utilizado na indústria de processadores, são necessários mais alguns anos pra poder responder isso. Por enquanto os transistores devem continuar sendo feito de silício, mesmo próximo ao seu limite.