????? ????????, ??????? / Vida digital para pessoas Fri, 20 Sep 2024 21:32:41 +0000 pt-BR hourly 1 //wordpress.org/?v=6.6 //emiaow553.com/wp-content/blogs.dir/8/files/2020/12/cropped-gizmodo-logo-256-32x32.png ??? ?????????, ?????? / 32 32 ??????? ?? ??????? ?? TOP10 //emiaow553.com/primeira-rede-de-criptografia-quantica-do-pais-deve-unir-cinco-instituicoes-de-pesquisa/ Sat, 21 Sep 2024 19:02:33 +0000 //emiaow553.com/?p=596449 Qubits da Rede Rio Quântica serão transmitidos por fibra óptica e laser a céu aberto

The post Primeira rede de criptografia quântica do país deve unir cinco instituições de pesquisa appeared first on Giz Brasil.

]]>
Texto: Renata Fontanetto/Revista Pequisa Fapesp

Sobre a baía de Guanabara, no Rio de Janeiro, uma faixa contínua de laser verde percorre 6,8 quilômetros (km) até encontrar uma janela no terraço do Centro Brasileiro de Pesquisas Físicas (CBPF), no bairro carioca da Urca. A fonte da luz está localizada numa sala no alto do prédio do Instituto de Física da Universidade Federal Fluminense (UFF), na vizinha Niterói, do outro lado da baía. O laser é a parte mais visível do trabalho de implementação da primeira rede metropolitana experimental de comunicação baseada em propriedades da mecânica quântica do Brasil, a Rio Quântica.

Além da conexão aérea propiciada pelo feixe de fótons entre essas duas instituições, a rede interliga por cabos de fibra óptica a Universidade Federal do Rio de Janeiro (UFRJ), a Pontifícia Universidade Católica do Rio de Janeiro (PUC-Rio), o CBPF e, em breve, o Instituto Militar de Engenharia (IME). Em implementação desde 2021, a rede está em fase de testes e instrumentalização e pretende utilizar a chamada criptografia quântica para transmitir dados de forma segura.

Na criptografia tradicional, em uso em celulares e computadores de todo o mundo, as informações são codificadas na forma de bits clássicos (uma sequência de 0 e 1) e transmitidas no mesmo canal que as chaves digitais empregadas para decodificá-las. Um bit é a menor unidade de informação que pode ser armazenada e transmitida. Pode representar apenas um desses dois valores possíveis: 0 ou 1.

A comunicação quântica trabalha com um análogo do bit clássico, o qubit, que pode assumir concomitantemente dois valores: ser 0 e 1 ao mesmo tempo. Essa propriedade, baseada no fenômeno quântico denominado superposição de estados, amplia as possibilidades da criptografia quântica e a torna quase inviolável. Um tipo particular de superposição é o emaranhamento, um recurso adicional utilizado na segurança de redes quânticas de comunicação. Por isso, essas redes são vistas como fundamentais para garantir a segurança de uma série de tarefas no futuro próximo, como a simples autenticação num aplicativo de banco ou mesmo a troca de mensagens sensíveis para fins de segurança nacional.

“A criptografia quântica não é usada para codificar um texto, mas, sim, para criar e transmitir as chaves que devem ser empregadas para que as mensagens possam ser lidas em segurança? comenta o físico Antonio Zelaquett Khoury, coordenador da Rio Quântica. A montagem da rede é uma operação sofisticada. Até o momento, os primeiros testes asseguram que pelo menos alguns canais de comunicação dentro da rede estão funcionando de forma satisfatória.

A UFRJ, a PUC-Rio e o CBPF já estavam conectados por cabos de fibra óptica graças a um investimento feito anos atrás pela Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj) e pela Rede Nacional de Ensino e Pesquisa (RNP) do Ministério da Ciência, Tecnologia e Inovação (MCTI). Como havia fibras ociosas dentro dessa rede, elas foram cedidas para uso da Rio Quântica. Dois pares de fibras partem da PUC-Rio, um para o CBPF e o outro para a UFRJ (ver mapa abaixo). O canal com o CBPF funciona bem, mas o da UFRJ apresenta sinal fraco e precisará de correção. A ligação entre o CBPF e o IME, última instituição a entrar no projeto, está em fase final de implementação. A distância entre ambas é de apenas 800 metros. Além da ligação por fibra óptica, está prevista para ser instalada ainda neste ano uma conexão extra, via laser pelo ar, entre o CBPF e o IME.

Imagem: Bing Maps | Infográfico: Alexandre Affonso/Revista Pesquisa FAPESP

Na operação montada pela Rio Quântica, a parte que vem se mostrando mais desafiadora é o vínculo pelo ar. O feixe de laser emitido na UFF precisa ser captado pelo receptor óptico situado numa sala construída no topo do CBPF exclusivamente para abrigar o equipamento. Qualquer parcela de luz perdida pode comprometer a integridade da informação transmitida. Por ora, as partículas de luz verde ainda chegam excessivamente dispersas ao terraço do CBPF, falha que deverá ser corrigida até o fim de 2024. “Enlaces de longa distância podem atrapalhar muito a parte quântica. Até mesmo leves distorções ou trepidações nos terraços desalinham o feixe de luz, sem falar no efeito de fatores ambientais que atenuam o sinal, como calor, névoa e chuva? comenta o tenente-coronel Vítor Andrezo, engenheiro de comunicações do IME e especialista em óptica no espaço livre. Os sistemas quânticos são muito frágeis e qualquer influência do meio ambiente pode interferir em seu funcionamento.

Uma vez que a infraestrutura esteja montada, com os devidos canais funcionando, o próximo passo é a implementação de um protocolo de criptografia quântica entre as instituições para colocar em prática o objetivo fundamental do projeto: a geração a distância de chaves criptográficas aleatórias. “O objetivo é que duas estações de pesquisa, nomeadas como Alice e Bob, compartilhem uma chave criptográfica entre si que codifica e decodifica mensagens. Uma vez utilizada, a chave precisa ser descartada? detalha Guilherme Temporão, do departamento de Engenharia Elétrica da PUC-Rio, integrante da rede.

O protocolo adotado pela Rede Rio Quântica utiliza um terceiro agente, denominado Charlie, que pode ser confiável ou não e precisa estar posicionado entre as estações Alice e Bob, formando uma espécie de circuito. A primeira tentativa de implementação do protocolo em condições experimentais será feita entre a PUC-Rio, no papel de Charlie, e a UFRJ e o CBPF, que serão Alice e Bob, respectivamente. A intenção do grupo é ir mudando os papéis de cada instituição envolvida na rede, de forma a testar novas configurações. “No protocolo, Charlie é responsável pelo envio de fótons em branco, sem nenhuma informação, que serão modificados por Alice e Bob e reenviados de volta para Charlie edetectados? comenta Temporão.

A Rio Quântica recebeu cerca de R$ 3 milhões em 2022 de uma parceria da FAPESP com o MCTI para sua implementação inicial. No ano passado, ganhou outros R$ 3 milhões do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq). A Financiadora de Estudos e Projetos (Finep) disponibilizou ainda R$ 23 milhões para o CBPF, dos quais R$ 1 milhão foi destinado para as operações da rede e R$ 22 milhões para a construção do Laboratório de Tecnologias Quânticas no térreo do centro. O novo espaço deverá ser concluído até 2025.

Segundo o físico Ivan Oliveira, coordenador do projeto do Laboratório de Tecnologias Quânticas do CBPF e membro da Rio Quântica, o novo espaço de pesquisa tem como objetivo fabricar materiais úteis para o processo de computação quântica. “Existem diferentes candidatos a hardware para fazer esse tipo de computação, e o laboratório irá construir protótipos de chips quânticos e outros componentes eletrônicos? explica Oliveira. “São dispositivos que precisam funcionar a temperaturas muito baixas, perto do zero absoluto, cerca de 273 graus Celsius negativos. Teremos refrigeradores para abrigar os materiais que serão construídos.?/p>

Outras duas redes quânticas metropolitanas estão sendo gestadas no Brasil, em estágio ainda mais preliminar que a do Rio de Janeiro, com financiamento do CNPq. A Rede Quântica Recife está instalando uma conexão de fibras ópticas entre as universidades federais de Pernambuco (UFPE) e Rural de Pernambuco (UFRPE). A distância entre as instituições é de cerca de 5 km. Um atraso na liberação dos recursos, no entanto, vem impactando o andamento do projeto.

O segundo projeto envolve a constituição de uma rede de aproximadamente 4 km com três pontos em São Carlos, no interior paulista. Os nós da rede são a Universidade Federal de São Carlos (UFSCar), o Instituto de Física de São Carlos da Universidade de São Paulo (IFSC-USP) e o Centro de Pesquisas Avançadas Wernher von Braun, instituição privada local que atua na área de física e eletrônica. “No momento, estamos analisando a viabilidade de conectar por cabo óptico a UFSCar à USP e esta à sede do centro von Braun? informa o físico Celso Villas-Bôas, da USFCar, coordenador do projeto. A rede quântica na cidade paulista pretende estar ativa dentro de dois anos.

Redes no exterior

Há duas décadas começou a se tornar realidade a ideia de implementar redes metropolitanas para pesquisar as potencialidades da comunicação quântica. A primeira iniciativa nesse sentido surgiu em 2003 nos Estados Unidos e funcionou por quatro anos. Era uma rede de criptografia quântica que usava fibras ópticas para interligar a Universidade de Boston à empresa de tecnologia BBN e à Universidade Harvard, ambas em Cambridge, cidade vizinha a Boston, no estado norte-americano de Massachusetts.

Desde então, outras iniciativas desse tipo foram surgindo mundo afora. Em maio deste ano, três grupos independentes de pesquisa, baseados na China, Estados Unidos e Europa, divulgaram praticamente ao mesmo tempo que tinham obtido sucesso em transmitir fótons emaranhados entre diferentes pontos de redes em áreas urbanas conectadas por fibra óptica. Esse seria o passo inicial para se criar uma espécie de internet quântica. No emaranhamento, duas ou mais partículas (podem ser fótons, elétrons ou átomos) se comportam como se fossem uma entidade única, entrelaçada, ainda que estejam separadas por qualquer distância. O resultado de medições feitas em uma partícula está correlacionado com o valor obtido para a outra. Essa propriedade pode ser usada para transmitir informação.

O país que mais investe em comunicação quântica atualmente é a China, tendo gasto nesse nascente setor mais de US$ 15 bilhões, mais do que a soma de todos os outros concorrentes. O gigante asiático já implementou algumas redes de criptografia quântica. A maior de todas integra atualmente quatro áreas metropolitanas por fibras ópticas ?Beijing, Jinan, Hefei e Xangai ?e conta com dois satélites com tecnologias quânticas lançados em órbita, Micius e Jinan 1, que se comunicam com estações terrestres. No total, mais de 4,6 mil km estão contemplados dentro da rede. A Rede Rio Quântica e seus congêneres em São Carlos e no Recife são os passos iniciais do país para montar sistemas de comunicação baseados em qubits.

A reportagem acima foi publicada com o título ?strong>Qubits na Guanabara?na edição impressa nº 342, de agosto de 2024.

Projeto
Rede Rio Quântica (nº 21/06823-5); Modalidade Projeto Temático; Acordo MCTI/MC; Pesquisador responsável Antonio Zelaquett Khoury (UFF); Investimento R$ 2.369.806,41.

The post Primeira rede de criptografia quântica do país deve unir cinco instituições de pesquisa appeared first on Giz Brasil.

]]>
?? ??????? //emiaow553.com/participacao-brasileira-e-fundamental-para-megaprojeto-de-estudo-dos-neutrinos/ Mon, 02 Sep 2024 21:21:18 +0000 //emiaow553.com/?p=590249 Pesquisadores da Unicamp e de outras universidades, além de 20 empresas nacionais, participam do experimento Dune. E respondem pelos processos de purificação do argônio e detecção dos fótons, sem os quais o empreendimento internacional seria impossível

The post Participação brasileira é fundamental para megaprojeto de estudo dos neutrinos appeared first on Giz Brasil.

]]>
Texto: José Tadeu Arantes | Agência FAPESP

Com expressiva participação brasileira, acaba de ser concluída uma fase crucial do megaprojeto Deep Underground Neutrino Experiment (Dune), o mais ambicioso empreendimento já concebido para o estudo de neutrinos. No dia 15 de agosto, após três anos de trabalho, foram inauguradas as escavações subterrâneas para a construção da Long-Baseline Neutrino Facility (LBNF). Localizadas a mais de 1,6 quilômetro abaixo da superfície, em Lead, Dakota do Sul, Estados Unidos, as cavernas são estruturas gigantescas ?as duas principais com mais de 150 metros de comprimento e altura equivalente a um edifício de sete andares. Cada uma das cavernas principais abrigará um detector de partículas, preenchido com 17 mil toneladas de argônio líquido puríssimo, resfriado a -184°C. As cintilações e cargas elétricas produzidas no argônio pela passagem do feixe de neutrinos informarão os cientistas sobre as transformações sofridas por essas partículas depois de viajarem 1,3 mil quilômetros debaixo da terra, desde sua fonte no Fermi National Accelerator Laboratory (Fermilab), no Estado de Illinois, até a LBNF, em Dakota do Sul.

A cerimônia de inauguração das cavernas, conduzida por Lia Merminga, diretora do Fermilab, reuniu várias autoridades políticas e científicas dos Estados Unidos e de outros países envolvidos no projeto ?entre elas, uma comitiva de quatro representantes brasileiros: Carlos Américo Pacheco, diretor-presidente da FAPESP; Antonio José de Almeida Meirelles (Tom Zé), reitor da Universidade Estadual de Campinas (Unicamp); Maria Luiza Moretti, vice-reitora da Unicamp; e Pascoal Pagliuso, professor do Instituto de Física Gleb Wataghin (IFGW-Unicamp) e pesquisador principal do projeto científico de purificação do argônio e do projeto de construção da estrutura purificadora que será utilizada no experimento.

 Hema Ramamoorthi (Fermilab), Maria Luiza Moretti, Tom Zé e Pascoal Pagliuso nacerimônia de inauguração das cavernas (foto: Carlos Américo Pacheco/FAPESP)

Hema Ramamoorthi (Fermilab), Maria Luiza Moretti, Tom Zé e Pascoal Pagliuso na cerimônia de inauguração das cavernas (foto: Carlos Américo Pacheco/FAPESP)

Por meio de um fenômeno conhecido como “oscilação dos neutrinos? os cientistas envolvidos no projeto pretendem responder a pelo menos três perguntas cruciais: por que a matéria predominou sobre a antimatéria na formação do Universo; como as explosões de estrelas supermassivas criam buracos negros; e se os neutrinos podem ser um componente importante na composição da chamada matéria escura, que responde por mais de 20% da composição do Universo.

Para tanto, os pesquisadores utilizarão o mais poderoso feixe de neutrinos até agora concebido, produzido no acelerador de partículas do Fermilab. Esse feixe deverá viajar 1,3 mil quilômetros debaixo da terra e passar por dois sistemas de detecção: o primeiro bem perto da fonte, no próprio Fermilab, no Estado de Illinois; o segundo, muito maior, situado na LBNF, em Dakota do Sul. Não será necessário construir nenhum túnel dessa extensão, porque, devido ao fato de não serem suscetíveis à interação eletromagnética nem à interação nuclear forte, os neutrinos são capazes de atravessar enormes extensões de matéria comum, mesmo os corpos mais compactos, sem que seu movimento seja barrado ou desviado: propagam-se em linha reta, viajam em velocidade próxima à da luz e conseguem ultrapassar qualquer obstáculo existente no caminho. As diferenças entre as medições realizadas no primeiro e no segundo sistemas de detecção informarão sobre o processo de oscilação dos neutrinos e possibilitarão, eventualmente, obter as respostas esperadas.

Purificação do argônio e detecção das cintilações

A colaboração Dune inclui mais de 1,4 mil cientistas e engenheiros de mais de 200 instituições em 36 países. A participação brasileira é fundamental, porque, sob a liderança da Unicamp, com robusto apoio financeiro da FAPESP (projetos 21/13757-9 19/11557-2) e do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT), além da participação de mais de 20 empresas, o país será responsável pelo sofisticadíssimo sistema de purificação do argônio e pela engenhosa estrutura de detecção das cintilações luminosas, constituída pelo dispositivo X-Arapuca (leia mais em: agencia.fapesp.br/29775).

“O projeto de filtragem e refrigeração do argônio associa uma pesquisa científica extraordinariamente avançada com desafios tecnológicos para a produção de uma instrumentação científica muito sofisticada. Os trabalhos são liderados por físicos da Unicamp e outras instituições e agregam cerca de 20 empresas brasileiras. Disso vai derivar também a estruturação, em Campinas, de um hub de acesso ao experimento, que, no futuro, facilitará a interação da comunidade científica brasileira e latino-americana com dados produzidos pelo projeto, nos moldes da cooperação existente hoje entre o Cern [Organização Europeia para Pesquisa Nuclear] e o Fermilab, nos Estados Unidos. Ele complementa os avanços que já foram feitos no projeto e fabricação do X-Arapuca, também financiados pela FAPESP, que é o melhor detector de fótons já construído e que vai fazer parte da instrumentação de detecção de neutrinos que está sendo instalada em Dakota do Sul? diz Pacheco.

O aporte financeiro da FAPESP para a purificação, criogenia massiva e regeneração do argônio é de cerca de R$ 88,6 milhões, com um montante equivalente sendo provido pelo FNDCT ?um fundo que tem como objetivo financiar a inovação e o desenvolvimento científico e tecnológico no país. Sua gestão financeira é exercida pela Financiadora de Estudos e Projetos (Finep).

“O apoio do FNDCT ao projeto, que será entregue em duas parcelas, uma em 2024 e a outra em 2025, faz parte do nosso programa ‘Mais Inovação? voltado à inovação para a industrialização do Brasil em bases sustentáveis. Vale lembrar que todo o processo relacionado com o argônio utilizado na LBNF será realizado por empresas nacionais? afirma Carlos Alberto Aragão de Carvalho Filho, diretor de Desenvolvimento Científico e Tecnológico da Finep.

A integração do processo é exercida pelo IFGW-Unicamp e pelas empresas Akaer e Equatorial Sistemas Ltda., que se uniram ao Fermilab em um acordo científico para realizar pesquisa, desenvolvimento, testes, modelagem e prototipagem de menor escala com o intuito de prover, refrigerar e regenerar o argônio líquido puríssimo que será utilizado nas instalações subterrâneas da LBNF.

Impurezas abaixo de 100 partes por trilhão

“?superimportante ressaltar esse aspecto da pureza, porque, para o experimento funcionar, é necessária não apenas uma quantidade enorme de argônio, uma vez que os neutrinos interagem muito pouco com tudo, como também que esse argônio seja extremamente puro. Isso significa uma quantidade de impurezas menor do que 100 partes por trilhão. Não existe argônio assim tão puro no mercado. Por isso, tivemos de desenvolver um método muito original de purificação? informa Pagliuso.

O processo é feito parte no estado gasoso e parte no estado líquido. Para isso foram projetados vasos de pressão por onde o gás ou o líquido devem passar, atravessando uma série de filtros. Tais filtros são bandejas em cima das quais é distribuído um material adsorvente extremamente sofisticado, constituído por pequenas esferas de material cerâmico, com base de alumina e dopadas por outros elementos químicos, que possuem poros microscópicos. Quando o gás ou o líquido são forçados a passar por esses materiais, impurezas específicas são capturadas por adsorção.

O projeto que possibilitou o desenvolvimento desse sistema foi contemplado com o Prêmio Nacional de Inovação (PNI) de 2023, concedido pela Confederação Nacional da Indústria (CNI) e pelo Serviço de Apoio às Micro e Pequenas Empresas (Sebrae). Pagliuso recebeu o prêmio, como líder da equipe, na categoria de pesquisador inovador trabalhando com empresas de médio porte.

As impurezas são basicamente água, oxigênio e nitrogênio. A água é mais fácil de tirar; já as capturas do oxigênio e do nitrogênio são bem mais difíceis. Por isso, o sistema desenvolvido na Unicamp foi altamente apreciado pelo pessoal do Fermilab.

“Tanto conseguimos desenhar o projeto conceitual do sistema de purificação como inovamos ao utilizar materiais comerciais para capturar o nitrogênio, com uma metodologia que eles não conheciam. Também desenvolvemos, nós mesmos, materiais alternativos para purificar oxigênio. Tudo isso nos qualificou como responsáveis pela produção do sistema real. E possibilitou ao Brasil e à Unicamp dar a terceira contribuição mais importante para o projeto, atrás apenas do Departamento de Energia [DOE, na sigla em inglês] dos Estados Unidos [que gerencia o Fermilab] e do Cern? conta Pagliuso.

Vale repetir que a colaboração Dune agrega mais de 200 instituições de todo o mundo. Ficar em terceiro lugar no rol das contribuições, apenas depois de gigantes como o DOE e o Cern, é algo muito relevante para a comunidade científica brasileira. “Outra coisa importante de mencionar é que, para mostrarmos que os nossos métodos eram eficientes, desenvolvemos um protótipo, um criostato de purificação de argônio. Chama-se PuLArC [Purification Liquid Argon Cryostat] e está instalado no Instituto de Física da Unicamp. Tem sido utilizado em testes feitos por nossa equipe ou a pedido do pessoal do Fermilab. Baseado nos métodos que desenvolvemos, um segundo protótipo, com capacidade de 3 mil litros, o Iceberg, foi utilizado no próprio Fermilab para reproduzir os resultados do PuLArC. O PuLArC e o Iceberg demonstraram a eficiência do nosso método na captura de nitrogênio em argônio líquido? relata Pagliuso.

E continua: “Vamos iniciar em setembro, com o apoio conjunto da FAPESP e do FNDCT, a segunda fase do projeto, que é a da construção propriamente dita?

Retorno tecnológico para a indústria brasileira

O projeto demanda uma tecnologia avançadíssima de alto vácuo e baixas temperaturas, que vai ficar para as empresas brasileiras. Elas também serão certificadas para produzir material baseado nesses parâmetros para o mercado norte-americano e o Cern. Duas patentes, relativas a métodos e meios filtrantes inovadores para adsorção de oxigênio e nitrogênio, já foram depositadas em 2023: BR102023024694-0 e BR102023026705-0. Estima-se que toda essa movimentação vai gerar de 100 a 150 empregos diretos e talvez mais de 500 empregos indiretos. Tanto no setor industrial quanto nas universidades.

Mobilizadas por um evento realizado pela FAPESP e o Fermilab, em 2019, a Unicamp e a Akaer estão desempenhando papel estratégico no processo. O engenheiro Fernando Ferraz, vice-presidente de operações da empresa, afirma que a participação no projeto constitui um desafio muito maior do que o de montar uma caravela no interior de uma garrafa.

“Depois de desenvolver as soluções do lado de fora, é preciso descer a planta inteira, pedacinho por pedacinho, a 1,6 mil metros abaixo do solo. Apesar de rápido, o elevador leva mais de meia hora para fazer o percurso. Além disso, o volume de argônio para encher os tanques é gigantesco, equivalente a três anos da produção global. Deve apresentar um nível de pureza mil vezes mais restritivo do que o melhor padrão comercial existente hoje. E precisa ser mantido refrigerado, de maneira estável, a -184°C. Se essa massa colossal começar a esquentar ou esfriar, será muito difícil responder. Por isso, é preciso manter controles muito estreitos, muito apertados? diz.

O engenheiro informa que a planta subterrânea é subdividida em blocos. Tem um de purificação, outro de condensação e um terceiro bloco de regeneração. Seguindo os parâmetros definidos na Unicamp e em outras universidades, sua empresa projetou os vasos de pressão por onde o argônio gasoso ou líquido deve passar para ser filtrado. “Para se ter ideia, estamos falando de algo como cem vasos de pressão e 14 ou 15 quilômetros de tubos ligando isso tudo. Esses equipamentos vão ser fabricados no Brasil. Depois têm que ser embalados por partes, colocados em contêineres e despachados para os Estados Unidos. Chegando lá, precisam ser transportados por caminhões até a entrada das cavernas e levados por elevador ao subsolo, onde vão estar as pessoas encarregadas da montagem, na posição correta, peça por peça. Cada contêiner foi projetado de forma a funcionar também como ferramenta de içamento para a colocação no elevador e ferramenta de posicionamento para o encaixe final? detalha.

Ferraz compara o Dune ao Grande Colisor de Hádrons (LHC) do Cern. São plantas muito diferentes, para obter resultados distintos, mas que apresentam um grau de sofisticação tecnológica semelhante: o LHC desempenhando papel de vanguarda na pesquisa de hádrons (partículas sujeitas à interação forte) e o Dune desempenhando papel de vanguarda na pesquisa de léptons (partículas sujeitas à interação fraca). “?importante ressaltar que a pesquisa realizada no Cern demandou um vasto conjunto de soluções tecnológicas que, depois, se incorporam ao nosso cotidiano. O mesmo deverá acontecer com a pesquisa que será realizada no Dune? sublinha o engenheiro.

E apresenta como um dos desdobramentos tecnológicos possíveis a refrigeração do hidrogênio verde para uso como combustível veicular. “Todo mundo fala que o Brasil tem um grande potencial para a produção do hidrogênio verde, mas será preciso armazenar e transportar esse produto, que, na forma gasosa, é altamente inflamável. Há diferentes soluções para isso. A que parece mais interessante, do ponto de vista do balanço energético, é a criogenia: resfriar o gás e transformá-lo em um volume muito menor de líquido, para que possa ser armazenado e transportado de forma otimizada e segura. O problema é que isso envolve uma temperatura extremamente baixa, de -253°C. O que estamos fazendo no projeto da LBNF nos capacita e nos leva muito mais perto dessa solução. É um efeito colateral que poderá ampliar de forma muito expressiva o lastro tecnológico e o espectro de atuação da empresa? afirma.

X-Arapuca: fotodetecção altamente eficiente

Outra contribuição fundamental da ciência realizada no Brasil ao megaprojeto Dune será o dispositivo X-Arapuca, componente principal do sistema de fotodetecção. O X-Arapuca é basicamente uma pequena caixa, com paredes internas espelhadas, dotada de uma janela. Como o próprio nome sugere, consiste em uma armadilha para capturar a luz. Os fótons conseguem entrar no dispositivo, mas não conseguem sair. Foi idealizada de modo a proporcionar uma fotodetecção altamente eficiente em sistemas de grande escala, como os tanques de argônio líquido.

O dispositivo foi concebido pelo casal Ettore Segreto e Ana Amélia Bergamini Machado, atualmente sediados na Unicamp. Por seu trabalho, os dois foram premiados, em 2019, com o DPF Instrumentation Early Career Award. Concedido anualmente pela American Physical Society, o prêmio contempla contribuições excepcionais à instrumentação no campo da física de partículas. “Os neutrinos quase não interagem com a matéria. E, quando interagem, não podem ser percebidos diretamente, pois não possuem carga elétrica. Porém, ao atravessarem o argônio líquido, os neutrinos geram outras partículas, com carga, que fazem o material cintilar. A função do X-Arapuca é detectar essa cintilação. A luz produzida pelos átomos de argônio líquido tem comprimento de onda de 127 nanômetros. Utilizamos, então, na entrada do X-Arapuca um filtro constituído por materiais orgânicos que modifica o comprimento de onda para 350 nanômetros. Como a janela do X-Arapuca é transparente para esse comprimento de onda, os fótons conseguem entrar. Mas, uma vez lá dentro, usamos um segundo filtro para fazer o comprimento de onda mudar para 430 nanômetros. E os fótons não conseguem sair? explica Segreto.

Os dispositivos X-Arapucas já estão em funcionamento. “No Short-Baseline Neutrino Program, um programa de menor escala para detecção de neutrinos do Fermilab, 192 X-Arapucas, com duas janelas, foram instalados e já estão fazendo suas primeiras detecções. Outros 160 X-Arapucas, com seis janelas, foram entregues ao Proto-Dune, um grande protótipo do Dune montado no Cern, na Suíça. Todas as unidades foram produzidas por empresas brasileiras e montadas e testadas na Unicamp? conta Machado.

O X-Arapuca foi escolhido como o dispositivo de detecção de fótons para os dois detectores gigantes que serão instalados nas cavernas da LBNF. Cerca de 300 cientistas estão envolvidos no processo de desenvolvimento e fabricação. A construção começará ainda este ano no Brasil e a instalação em Dakota do Sul está prevista para 2026.

Centro de processamento de dados em Campinas

Tais realizações alçam a ciência e a engenharia brasileiras, e especialmente a Unicamp, a uma posição muito destacada no cenário internacional. “As ideias criativas do Ettore e da Ana Amélia para o processo de fotodetecção e, posteriormente, as contribuições do grupo do Pagliuso para a purificação e a criogenia nos colocaram nesse lugar. Todas essas iniciativas contaram com apoio da FAPESP. E existe agora também a contrapartida do FNDCT. Porque, cumprida a investigação na que convencionamos chamar de ‘primeira fase? vamos, na ‘segunda fase? coordenar a construção desse conjunto de equipamentos em escala. O rigor necessário é muito alto, porque manter o argônio líquido livre de oxigênio e nitrogênio, com um nível de contaminação inferior a 100 partes por trilhão, quando se vive em uma atmosfera que é constituída basicamente por oxigênio e nitrogênio, é um enorme desafio. Além disso, considere-se a criogenia. E a necessidade de levar o equipamento todo desmontado e remontá-lo a 1.600 metros abaixo da superfície? pondera o reitor da Unicamp.

Tom Zé informa que há também um incentivo do Fermilab e do Departamento de Energia dos Estados Unidos para que a Unicamp, em parceria com o Centro Nacional de Pesquisa em Energia e Materiais (CNPEM), constitua um centro de processamento dos dados levantados no Dune. “Então, teríamos aqui um centro brasileiro e latino-americano com acesso aos dados primários levantados pelo experimento e que poderia disponibilizá-los a cientistas do Brasil e da América Latina. Quer dizer, podemos nos tornar um hub regional desse experimento de longo prazo. Numa primeira etapa, é a construção da estrutura experimental, mas essa estrutura e o acesso que ela nos dá ao experimento conduzido pelo Fermilab abrem amplas perspectivas para o desenvolvimento da física teórica. Jovens pesquisadores, pós-doutores e doutores terão horizontes de pesquisas muito promissores. O que, aliás, já está acontecendo com o Ettore, a Ana Amélia e o pessoal deles? fala.

Todo esse processo, como enfatiza Tom Zé, contou com mão firme da FAPESP, não apenas no provimento de recursos, mas também na mobilização dos potenciais participantes. Depois que o projeto do Arapuca, posteriormente aperfeiçoado como X-Arapuca, já estava avançado, a possibilidade de aprofundamento da cooperação com o Fermilab fez com que uma delegação da FAPESP, composta por Pacheco, Marcio de Castro Silva Filho (diretor científico) e Sylvio Canuto (assessor da Diretoria Científica) visitassem a instituição nos Estados Unidos.

“Percebemos que havia mais possibilidades importantes? afirma Canuto, que é professor titular do Instituto de Física da Universidade de São Paulo (IF-USP), foi pró-reitor de pesquisa da USP e participa de várias instituições científicas no país e no exterior.

Ele foi encarregado de apresentar um projeto especial para o Conselho Superior da FAPESP, solicitando o apoio da instituição à instrumentação avançada necessária aos processos de purificação do argônio líquido e de fotodetecção para a LBNF-Dune. “A apresentação contemplou a importância do estudo de neutrinos para a ciência; como detectar neutrinos; a contribuição que São Paulo poderia dar a esse empreendimento; e os benefícios e perspectivas que daí adviriam. Foi muito bem recebida pelo Conselho Superior. E isso possibilitou que os trabalhos deslanchassem? relata.

Por que neutrinos

A existência do neutrino foi postulada, pela primeira vez, em 1930, pelo físico austríaco Wolfgang Pauli (1900-1958), um dos grandes construtores da teoria quântica. O objetivo era fechar o balanço energético do chamado decaimento beta do nêutron. Hoje admite-se que, fora do núcleo atômico, o nêutron decaia em pouco tempo, dando origem a um próton, um elétron e um antineutrino. Mas, na época, a ideia do neutrino parecia um mero artifício matemático, e foi encarada com ceticismo pela comunidade científica. Um dos poucos que aderiram a ela desde o primeiro momento foi o então jovem físico brasileiro Mário Schenberg (1914-1990), que trabalhou com Pauli na Suíça, tomou contato com o conceito de neutrino em uma palestra dada pelo italiano Enrico Fermi (1901-1954) em São Paulo e, mais tarde, nos Estados Unidos, incorporou essa partícula para corrigir o balanço energético proposto pelo ucraniano George Gamow (1904-1968) para a explosão das estrelas supernovas.

A existência da partícula foi confirmada em 1956, em um experimento conduzido pelos norte-americanos Clyde Cowan Jr (1919-1974), Frederick Reines (1918-1998) e colaboradores. Em 1995, estando Cowan morto, a descoberta finalmente foi contemplada com o Prêmio Nobel, que Reines recebeu em nome dos dois. Hoje, o neutrino constitui um dos principais objetos de estudo da física.

Ele é a partícula material mais abundante do Universo e, no rol dos objetos estudados pela ciência, ocupa o segundo lugar em abundância, depois do fóton (a partícula responsável pela interação eletromagnética, ou, simplificadamente, a partícula de luz). Pelo fato de não ser suscetível à interação eletromagnética nem à interação nuclear forte, é capaz de atravessar enormes extensões de matéria comum, mesmo os corpos mais compactos, sem que seu movimento seja barrado ou desviado.

No chamado modelo-padrão da física de partículas, o neutrino faz parte da família dos léptons. E, para cada lépton eletricamente carregado (o elétron, o múon e o tau), existe um tipo de neutrino correspondente. Assim, há três tipos ou “sabores?conhecidos de neutrinos: o neutrino do elétron, o neutrino do múon e o neutrino do tau. A transformação de um tipo ou “sabor?em outro, chamada de “oscilação dos neutrinos? prevista pelo físico italiano Bruno Pontecorvo (1913-1993), foi confirmada pelos experimentos realizados nos observatórios SNO (Canadá) e Super-Kamiokande (Japão).

Essa “oscilação?ocorre espontaneamente durante a propagação da partícula pelo espaço e poderia fornecer a chave para a compreensão de um fenômeno denominado “violação da simetria de carga-paridade dos léptons?(charge-parity violation ou CPV). Segundo o modelo hegemônico sobre a formação do Universo, foi essa “violação de simetria?que produziu, logo depois do Big Bang, um pequeno excedente de matéria em relação à antimatéria. E é esse excedente que compõe, atualmente, o Universo conhecido.

Os experimentos SNO e Super-Kamiokande confirmaram também outra antecipação de Pontecorvo, demonstrando que o neutrino tem massa. Na verdade, a oscilação só é possível devido à existência da massa, pois apenas partículas massivas podem oscilar. Embora a massa de cada neutrino seja muito pequena, existem tantos neutrinos no Universo que a massa total se torna bastante relevante. Por isso, os neutrinos são considerados, atualmente, candidatos a compor, junto com outras partículas exóticas, a chamada “matéria escura?

A compreensão da violação da simetria de carga-paridade dos léptons e a investigação da composição da matéria escura são dois dos principais objetivos do megaprojeto Dune. Adicionalmente, o experimento poderá responder a muitas outras perguntas ?entre elas, as relativas à formação dos buracos negros.

Um dos principais alvos do Dune no estudo da violação da simetria será comparar o padrão de oscilação dos neutrinos com o padrão de oscilação dos antineutrinos ?as antipartículas dos neutrinos que se distinguem destes por seu spin ter sentido horário em vez de anti-horário, quando observado no eixo do movimento. Se esses padrões não forem rigorosamente simétricos, o experimento fornecerá aos pesquisadores uma prova concreta da violação. Por outro lado, existe também a possibilidade de o neutrino ser sua própria antipartícula, caso em que constituiria um exemplo concreto de uma classe hipotética de partículas denominadas “férmions de Majorana?(previstos teoricamente pelo grande físico italiano Ettore Majorana em 1937).

Oito curiosidades sobre os neutrinos

1- Neutrinos têm carga elétrica nula e massa muito pequena (pelo menos seis ordens de grandeza menor do que a massa do elétron).

2- Como consequência da baixíssima massa, sua velocidade é muito próxima da velocidade da luz.

3- Os três tipos de neutrinos conhecidos experimentam apenas a ação das forças fraca e gravitacional.

4- São as mais numerosas partículas com massa da matéria comum.

5- São produzidos em função do chamado decaimento beta por diversas fontes: aceleradores, reatores nucleares, estrelas etc. O ser humano também emite neutrinos!

6- Devido à baixa probabilidade de interação, é estimado que apenas um neutrino proveniente do Sol deva interagir com uma pessoa em toda a sua vida, apesar do fluxo dessas partículas na Terra ser da ordem de 100 bilhões por centímetro quadrado por segundo.

7- Atualmente são conhecidos três tipos (ou sabores) de neutrinos. Ao se propagar ao longo do espaço, o neutrino pode oscilar entre esses tipos.

8- Há hipóteses de que possa haver mais sabores. Em particular, há predições teóricas que apontam para a existência do chamado neutrino estéril, que só interagiria por meio da força gravitacional.

The post Participação brasileira é fundamental para megaprojeto de estudo dos neutrinos appeared first on Giz Brasil.

]]>
????? ??????????, ??? //emiaow553.com/falha-no-campo-magnetico-da-terra-cresceu-mas-nao-oferece-perigos/ Tue, 02 Jul 2024 20:18:43 +0000 //emiaow553.com/?p=578779 Formada há milhões de anos, região vulnerável à radiação solar pode eventualmente causar interferências em satélites e espaçonaves em órbita sobre o Brasil

The post Falha no campo magnético da Terra cresceu, mas não oferece perigos appeared first on Giz Brasil.

]]>
Texto: Gilberto Stam/Revista Pesquisa Fapesp

Em dezembro, a Nasa, a agência espacial norte-americana, divulgou um relatório informando que a Anomalia Magnética do Atlântico Sul (Amas), uma região do campo magnético da Terra com intensidade reduzida, havia crescido 7% nos últimos quatro anos. A partir daí, circularam notícias nas mídias sociais de que esse fenômeno, por reduzir a proteção da Terra à radiação solar, ofereceria riscos à saúde ou poderia até mesmo intensificar as enchentes no Rio Grande do Sul. Não há motivo para apreensão, de acordo com os especialistas ouvidos por Pesquisa FAPESP.

“Eventuais falhas no campo magnético pouco afetam as pessoas ou o clima na Terra? disse o geofísico Gelvam Hartmann, da Universidade Estadual de Campinas (Unicamp). “A radiação solar pode até atravessar o campo magnético e atingir aparelhos eletrônicos em órbita terrestre, mas a quantidade de partículas carregadas que chega à superfície é muito pequena.?/p>

Outra ideia que caiu por terra: até 2023, pensava-se que o vento solar na região da Amas poderia atingir voos intercontinentais, em altitudes de cerca de 13 quilômetros (km). Pesquisadores alemães, no entanto, encontraram baixos níveis de radiação solar em um voo de Hamburgo, na Alemanha, para Mount Pleasant, nas Ilhas Malvinas, passando pela Amas, conforme relatado em artigo publicado em junho de 2023 na revista científica Scientific Reports.

Detectada no final dos anos 1950 pelos primeiros satélites de órbita terrestre baixa, a Amas é monitorada de perto por pesquisadores dos Estados Unidos, da União Europeia e da China, preocupados com seus eventuais efeitos em satélites, espaçonaves e estações espaciais.

O astronauta norte-americano aposentado Terry Virts relatou ter visto flashes de luz intensos sem som ao passar pela Amas em 2010, em seu primeiro voo pilotando o ônibus espacial Endeavour, da Nasa. Naquele momento os computadores sofreram danos consideráveis e os astronautas foram expostos à radiação elevada, como Virts revelou em fevereiro de 2018 à rede britânica BBC. Por causa de relatos como esse, a anomalia ganhou o apelido de “triângulo das Bermudas do espaço?

Alexandre Affonso/Revista Pesquisa FAPESP

Imagem: Alexandre Affonso/Revista Pesquisa FAPESP

Origem cada vez mais antiga

De origem incerta, Amas seria gerada na fronteira entre o núcleo externo líquido do planeta, composto principalmente por níquel e ferro, e o manto, a camada intermediária constituída, basicamente, por silicatos, o mineral mais abundante da Terra, formado por silício e oxigênio.

A condução de calor do nucelo para o manto é maior na região abaixo da África e menor abaixo da América do Sul. “Segundo a hipótese mais aceita, essa diferença no fluxo de calor na base do manto faz com que haja uma expulsão de fluxo magnético na região do Atlântico Sul, dando origem à anomalia? observa o geofísico Ricardo Trindade, da Universidade de São Paulo (USP).

Recentemente, a Amas formou um segundo núcleo sobre o oceano Atlântico, perto da África, com área menor do que o núcleo da América Latina, aparentemente sem nenhum impacto relevante para a Terra ou seus habitantes. A região maior está sobre a América Latina e, segundo os especialistas, deve desaparecer em tempo indeterminado; a menor deve gerar uma nova anomalia, em um ciclo que se repete ao longo dos séculos. Por enquanto, porém, pouca coisa mudou nessa trajetória.

Sinais de variação na direção do campo magnético foram encontrados em artefatos arqueológicos no sul da África datados do século V, indicando, inicialmente, que a Amas já existia naquela época. Em agosto de 2020, cientistas britânicos e norte-americanos publicaram um artigo na revista PNAS no qual descreviam indícios semelhantes em rochas com cerca de 11 milhões de anos na ilha de Santa Helena, território britânico localizado no oceano Atlântico, a 1.850 km da África.

Artigos científicos
MEIER, M. M. et al. Impact of the South Atlantic Anomaly on radiation exposure at flight altitudes during solar minimum. Scientific Reports. On-line. 8 jun. 2023.
ENGBERS, Y. A. et al. Elevated paleomagnetic dispersion at Saint Helena suggests long-lived anomalous behavior in the South Atlantic. PNAS. v. 117, n. 31. 4 ago. 2020.
NASA. State of the geomagnetic field. dez. 2023.

The post Falha no campo magnético da Terra cresceu, mas não oferece perigos appeared first on Giz Brasil.

]]>
????? ??????????, ??? //emiaow553.com/cientistas-sugerem-que-o-tempo-nao-existe-o-tic-tac-e-uma-ilusao/ Sat, 08 Jun 2024 21:47:46 +0000 //emiaow553.com/?p=573916 Em vez de ser uma dimensão contínua e independente, o tempo seria uma série de eventos correlacionados, dizem os pesquisadores

The post Cientistas sugerem que o tempo não existe: o “tic-tac” é uma ilusão appeared first on Giz Brasil.

]]>
Em um universo onde a física quântica desafia constantemente nossas noções pré-concebidas, uma das ideias mais provocativas é a sugestão de que o tempo, como o conhecemos, pode não existir, segundo cientistas da Itália.

[produto_amazon1]

Recentemente, uma teoria propõe que o que percebemos como o fluxo do tempo é, na verdade, uma ilusão criada pelo emaranhamento quântico.

A ideia de que o tempo é uma construção mental não é nova. Filósofos e cientistas têm debatido a natureza do tempo há séculos. No entanto, a nova teoria leva essa discussão para o reino da física quântica, sugerindo que o tempo emerge de relações quânticas e não é uma entidade fundamental do universo.

A teoria, elaborada por cientistas italianos, baseia-se no conceito de emaranhamento quântico, um fenômeno onde partículas quânticas se tornam tão interligadas que o estado de uma influencia instantaneamente o estado da outra, independentemente da distância que as separa.

Este fenômeno desafia a noção clássica de localidade e sugere que as conexões quânticas transcendem o espaço e o tempo convencionais.

O estudo publicado no último mês na revista Physical Review A. No artigo, os cientistas do Conselho Nacional de Investigação de Itália argumentam que o emaranhamento quântico poderia ser a base para a percepção do tempo.

Como funciona o tempo, segundo o novo estudo

Em vez de ser uma dimensão contínua e independente, o tempo seria uma série de eventos correlacionados. Eles emergem do emaranhamento de partículas no nível quântico. Isso significaria que o “tic-tac?do relógio é apenas uma representação conveniente de uma série de eventos entrelaçados.

Essa perspectiva tem implicações profundas para nossa compreensão do universo. Se o tempo é uma ilusão, então conceitos como passado, presente e futuro são apenas convenções que usamos para descrever nossa experiência subjetiva.

[produto_amazon1]

Isso também poderia explicar por que as equações da física quântica são simétricas no tempo, funcionando tanto para frente quanto para trás.

No entanto, essa teoria ainda está em seus estágios iniciais. Muitos físicos argumentam que, embora o emaranhamento quântico seja um fenômeno real e comprovado, não há evidências suficientes para sugerir que ele dá origem à nossa percepção.

 

The post Cientistas sugerem que o tempo não existe: o “tic-tac” é uma ilusão appeared first on Giz Brasil.

]]>
?????: ??? ????, ??? ???? ???? ??!? //emiaow553.com/einstein-acertou-de-novo-cientistas-comprovam-teoria-do-buraco-negro/ Fri, 24 May 2024 15:44:07 +0000 //emiaow553.com/?p=572450 Cientistas observaram pela primeira vez uma área na borda dos buracos negros, confirmando uma das previsões de Albert Einstein

The post Einstein acertou de novo: cientistas comprovam teoria do buraco negro appeared first on Giz Brasil.

]]>
Mais de um século após Albert Einstein prever o comportamento extremo em torno dos buracos negros, cientistas agora confirmam que ele, mais uma vez, estava certo.

Um estudo, publicado na Monthly Notices of the Royal Astronomical Society, revela a primeira observação direta da “região de mergulho” de um buraco negro.

Celular Motorola 5G com mais de R$450 de desconto
Moto G54 5G 256Gb 8Gb Ram
R$ 1.249

A região de mergulho fica além do horizonte de eventos do buraco negro. Ele é o ponto onde a gravidade se torna forte demais e qualquer objeto é inevitavelmente sugado. Este fenômeno era, até recentemente, uma previsão teórica sem observação direta.

Porém, o novo estudo, liderado por Andrew Mummery, da Universidade de Oxford, na Inglaterra, comprova as previsões do famoso cientista alemão com evidências observacionais inéditas.

Observação do buraco negro

Em 2018, astrônomos identificaram o buraco negro MAXI J1820+070, localizado cerca de 10 mil anos-luz da Terra. Ele estava se alimentando avidamente de matéria estelar.

Por isso, esse evento proporcionou uma oportunidade única para os cientistas estudarem seu disco de acreção — o material incandescente que orbita o buraco negro antes de ser engolido. Utilizando dados dos telescópios espaciais NuSTAR e NICER, da NASA, a equipe de Mummery pôde observar a luz vinda desta região crucial.

Um buraco negro simulado e seu disco de acreção. Ilustração: Goddard Space Flight Center da NASA / Jeremy Schnittman

Os modelos padrão não explicavam completamente as emissões de raios-x captadas. Por isso, levou os pesquisadores a considerar a possibilidade de que estavam observando material caindo na região de mergulho.

Essa nova perspectiva forneceu a primeira confirmação observacional de um conceito teórico de longa data. “?emocionante saber que podemos realmente ver essa região? disse Mummery ao Scientific American. “Agora que sabemos que podemos observá-la, há muito que podemos aprender?

O estudo revelou que o buraco negro em questão não estava girando rapidamente. Ou seja, uma descoberta que contradiz observações anteriores feitas com modelos que negligenciavam a região de mergulho.

Assim, essa discrepância sugere que a rotação desses objetos, um fator crucial para entender a evolução do universo, pode ser mais complexa do que se pensava. Com a confirmação de que Einstein estava correto mais uma vez, os cientistas agora têm uma ferramenta para explorar os mistérios e suas implicações para a cosmologia.

O Giz Brasil pode ganhar comissão sobre as vendas. Os preços são obtidos automaticamente por meio de uma API e podem estar defasados em relação à Amazon.

The post Einstein acertou de novo: cientistas comprovam teoria do buraco negro appeared first on Giz Brasil.

]]>
????? ???? ???????????? //emiaow553.com/startup-quantica-desenvolve-gerador-de-numeros-aleatorios-usado-em-loteria/ Fri, 24 May 2024 12:33:45 +0000 //emiaow553.com/?p=572364 Empresa chilena foi criada a partir de método desenvolvido por físico mineiro e colega polonês

The post Startup quântica desenvolve gerador de números aleatórios usado em loteria appeared first on Giz Brasil.

]]>
Texto: Marcos Pivetta/Revista Pesquisa Fapesp

No início de 2020, enquanto o vírus da Covid-19 começava a se espalhar pelo planeta, um pequeno grupo de pesquisadores da Universidade de Concepción, instituição privada no sul do Chile, trabalhava na produção do protótipo do primeiro produto comercial da empresa Sequre Quantum. Como o acesso à universidade era restrito em razão da pandemia, boa parte do serviço teve de ser feito em casa e exigiu constantes trocas de e-mail, chamadas de vídeo e envio de componentes para a versão inicial do aparelho.

Nascida na academia, a partir de um trabalho conjunto dos físicos Gustavo Moreira Lima, um mineiro que se transferiu para a universidade chilena em 2011, e Marcin Pawlowski, da Universidade de Gdansk, na Polônia, a startup desenvolveu um gerador de números aleatórios baseado em propriedades da física quântica. Segundo a empresa, isso tornaria o dispositivo praticamente inviolável e garantiria a imprevisibilidade dos algarismos por ele fornecidos. O aparelho pode ser usado em jogos de azar e também como fonte de chaves criptográficas.

“Tivemos uma ideia muito interessante para a geração de números aleatórios que, ao mesmo tempo, permitiu a criação de um produto com um preço viável? explica Moreira Lima, que, ao lado de Pawlowski, detém uma patente sobre a tecnologia que desenvolveram. “Dessa forma, podemos ter uma empresa estável.?O brasileiro fundou a Sequre Quantum com o colega polonês e o físico norte-americano Stephen Walborn, que fez mestrado e doutorado na Universidade Federal de Minas Gerais (UFMG) e foi docente da Universidade Federal do Rio de Janeiro (UFRJ) por 12 anos antes de se transferir para a universidade chilena em 2019.

“O dispositivo é como um minicomputador quântico de 1 qubit [bit quântico]? compara Assmann. “Sua única finalidade é gerar números aleatórios.?Ele tem uma fonte de laser e gera 10 milhões de fótons (partículas de luz) por segundo que podem ser flagrados ou não por dois detectores no aparelho. A sucessão de registros e não registros no par de detectores gera um código imprevisível que pode ser convertido em uma sequência de números.

Até agora, a empresa recebeu investimentos da ordem de US$ 1,5 milhão, mais de 90% deles de origem privada, e vendeu sete dispositivos a um preço não divulgado. O primeiro cliente foi a Loteria de Concepción. Desde 2022, os sorteios feitos pela casa de jogos usam os números gerados pelo aparelho da Sequre Quantum. Na área de cibersegurança, a empresa assinou acordos com as forças armadas do Chile e a multinacional francesa Thales, que atua na área de sistemas de informação. Walborn e a astrofísica Paulina Assmann, CEO da startup, estiveram no Brasil em abril para divulgar o produto da empresa e prospectar parcerias durante encontro sobre tecnologias quânticas realizado como evento preparatório para a 5ª Conferência Nacional de Ciência, Tecnologia e Inovação.

_

A reportagem acima foi publicada com o título “Chilena, com um toque brasileiro?na edição impressa nº 339, de maio de 2024.

The post Startup quântica desenvolve gerador de números aleatórios usado em loteria appeared first on Giz Brasil.

]]>
???????????? ?? ???????? //emiaow553.com/encontradas-pela-primeira-vez-moleculas-organicas-complexas-no-gelo-de-estrelas-nascentes/ Mon, 20 May 2024 12:23:02 +0000 //emiaow553.com/?p=571389 Etanol e mais dois compostos na fase sólida foram identificados pelo telescópio James Webb

The post Encontradas pela primeira vez moléculas orgânicas complexas no gelo de estrelas nascentes appeared first on Giz Brasil.

]]>
Texto: Marcos Pivetta/Revista Pesquisa Fapesp

Moléculas orgânicas complexas consideradas ingredientes das reações químicas que podem levar ao surgimento da vida foram identificadas pela primeira vez em gelos em torno de duas estrelas nascentes. Esse tipo de composto, formado por pelo menos 6 átomos que incluem carbono, oxigênio e hidrogênio, já tinha sido encontrado no estado gasoso em outras protoestrelas, que estão nos primórdios de sua formação e ainda não têm planetas ao seu redor. Sua detecção como um sólido havia sido prevista por experimentos em laboratório, mas nunca fora obtida de forma inequívoca por meio de observações astronômicas. Agora, segundo artigo publicado em março na revista Astronomy & Astrophysics, a assinatura química de pelo menos três moléculas orgânicas complexas foi observada, sem margem de dúvida, nas estrelas IRAS 2A e IRAS 23385. A primeira dista 975 anos-luz da Terra e a segunda 16 mil anos-luz.

A molécula mais famosa identificada foi o etanol (CH3CH2OH), o álcool etílico presente na cerveja, vinho e em outras bebidas. Outra razoavelmente conhecida foi o acetaldeído (CH3CHO), um dos agentes responsáveis pela sensação de ressaca depois de beber em excesso. O terceiro composto identificado é menos familiar: o metanoato de metila (CH3OCHO), que pode ser usado como solvente do acetato de celulose e inseticida. Com um grau de certeza menor, também foi registrado no gelo interestelar indício de ácido acético (CH3COOH), principal ingrediente do vinagre.

“O artigo mostra que moléculas orgânicas complexas podem se formar no gelo em torno das protoestrelas. Vários trabalhos de laboratório sugeriam que isso era possível, mas não havia nenhuma observação que comprovasse essa ideia? explica o astrofísico brasileiro Will Rocha, primeiro autor do trabalho, que faz pós-doutorado na Universidade de Leiden, nos Países Baixos. “Por estarem presentes no gelo, essas moléculas teriam menor chance de serem destruídas pela radiação e poderiam sobreviver ao processo de evolução de uma protoestrela.?Dessa forma, em tese, poderiam ser inseridas em planetas em formação e servir de matéria-prima para a formação de moléculas necessárias para o surgimento de vida, como os aminoácidos.

O registro foi obtido com um dos espectrógrafos a bordo do telescópio espacial James Webb, projeto das agências espaciais norte-americana (Nasa), europeia (Esa) e canadense (CSA). Esse tipo de instrumento dispersa a luz proveniente de um objeto astrofísico e permite, entre outros parâmetros, inferir sua composição química.

Para o astrofísico Sergio Pilling, coordenador do Laboratório de Astroquímica e Astrobiologia da Universidade do Vale do Paraíba (Univap), o trabalho reforça a hipótese de que certa química orgânica complexa ocorre em grãos gelados antes de serem incorporados às fases gasosas ou até mesmo aos corpos planetários. “Compreender a abundância e a distribuição dessas moléculas no espaço pode fornecer insights sobre a habitabilidade potencial de outros planetas? comenta Pilling, que não participou da equipe responsável pelo estudo. Uma das estrelas nascentes, a IRAS 2A, se parece com o Sol no início de sua existência e pode ser útil para entender sua origem.

Artigo científico
ROCHA, W.R.N. et al. JWST Observations of Young protoStars (JOYS+): Detecting icy complex organic molecules and ions. Astronomy & Astrophysics. 13 mar. 2024.

The post Encontradas pela primeira vez moléculas orgânicas complexas no gelo de estrelas nascentes appeared first on Giz Brasil.

]]>
?? ?? ??? ?? ?? ??? ?????? ?? //emiaow553.com/estudo-utiliza-conceitos-da-termodinamica-para-descrever-a-expansao-do-universo/ Sun, 14 Apr 2024 21:01:39 +0000 //emiaow553.com/?p=562481 A mudança de um regime de expansão desacelerada (na era dominada pela radiação e pela matéria) para um regime de expansão acelerada (na era dominada pela energia escura) se assemelharia a uma transição de fase termodinâmica, sugerem cientistas da Unesp na revista Results in Physics

The post Estudo utiliza conceitos da termodinâmica para descrever a expansão do Universo appeared first on Giz Brasil.

]]>
Texto: José Tadeu Arantes  |  Agência FAPESP

A ideia da expansão do Universo tem já quase um século. A proposição de que as galáxias distantes estão se afastando da Terra e de que a velocidade de afastamento cresce com a distância foi teorizada pelo belga Georges Lemaître (1894-1966) em 1927 e confirmada observacionalmente pelo norte-americano Edwin Hubble (1889-1953) dois anos depois. Tal confirmação foi proporcionada pelo redshift (desvio para o vermelho) do espectro da radiação eletromagnética recebida desses objetos longínquos.

Em 1998, um novo e surpreendente ingrediente foi acrescentado ao modelo. Um conjunto de observações de estrelas supernovas muito distantes, realizadas pelo Supernova Cosmology Project e pelo High-Z Supernova Search Team, mostraram que a expansão do Universo estava se acelerando ?e não sendo retardada por efeito gravitacional como se supunha. Essa descoberta levou ao conceito de energia escura, que supõe-se contribuir com mais de 68% da energia total do Universo observável atual, enquanto a matéria escura e a matéria comum contribuem com 26% e 5%, aproximadamente.

“Medidas de redshift apontam para uma expansão acelerada adiabática [isto é, sem troca de calor] e anisotrópica [que não é a mesma em todas as direções]? diz Mariano de Souza, professor do Departamento de Física do Instituto de Geociências e Ciências Exatas da Universidade Estadual Paulista (Unesp), campus de Rio Claro. E prossegue: “Conceitos fundamentais da termodinâmica permitem inferir que toda expansão adiabática é acompanhada de um resfriamento, no efeito barocalórico [capaz de gerar calor quando submetido a pressão] que é quantificado pela chamada razão de Grüneisen.?/p>

Representação das eras do Universo ?(a) radiação, (b) matéria, (c) energia escura ?com os respectivos valores do parâmetro da equação de estado ω = Γeff, onde Γeff é o parâmetro de Grüneisen efetivo. À medida que a energia escura passa a dominar, ocorre uma mudança de sinal em Γeff, que emula uma transição de fase da física da matéria condensada (imagem: Mariano de Souza/Unesp)

Cabem aqui algumas informações. Em 1908, o físico alemão Eduard August Grüneisen (1877-1949) propôs uma expressão matemática para o denominado parâmetro de Grüneisen efetivo, Γeff, que relaciona três propriedades físicas de um material: o coeficiente de expansão térmica, o calor específico e a compressibilidade isotérmica. Quase um século depois, em 2003, Lijun Zhu e colaboradores demonstraram que a parte singular de Γeff, chamada “razão de Grüneisen? definida como a razão entre o coeficiente de expansão térmica e o calor específico, aumenta expressivamente nas vizinhanças de um ponto crítico quântico devido ao acúmulo de entropia. Em 2010, Mariano de Souza e colaboradores demonstraram que o mesmo ocorre para um ponto crítico a temperatura finita.

Em artigo recente, publicado no periódico Results in Physics, os pesquisadores da Unesp liderados por Souza utilizaram o parâmetro de Grüneisen para descrever aspectos intricados relacionados à expansão do Universo. O trabalho é um dos resultados da pesquisa de doutorado de Lucas Squillante, o primeiro autor, atualmente pós-doutorando sob supervisão de Souza.

“A dinâmica associada à expansão do Universo é geralmente descrita pelo modelo de um fluído perfeito, cuja equação de estado é dada por ω = p/ρ, onde ω [ômega] é o chamado parâmetro da equação de estado, p [pê] a pressão e ρ [rô] a densidade de energia. Embora amplamente utilizado, o significado físico de ω ainda não havia sido discutido de forma apropriada. Ou seja, ω era tratado apenas como uma constante para cada era do Universo. Um dos resultados importantes de nosso trabalho é a identificação de ω com o parâmetro de Grüneisen efetivo, por meio da equação de estado de Mie-Grüneisen? explica Souza.

Os pesquisadores demonstraram, utilizando o parâmetro de Grüneisen, que o contínuo resfriamento do Universo está associado a um efeito barocalórico, isto é, que relaciona pressão e temperatura. Tal efeito, por sua vez, ocorre devido à expansão adiabática do Universo. Sob essa perspectiva, propuseram que, na era dominada pela energia escura, na qual atualmente nos encontramos, o parâmetro de Grüneisen depende do tempo.

Um dos aspectos interessantes desse trabalho é que utiliza conceitos da termodinâmica e da física do estado sólido, como stress (tensão) e strain (deformação), para descrever a expansão anisotrópica do Universo. “Demonstramos que o parâmetro de Grüneisen está naturalmente incluído no tensor de stress energia-momento presente nas celebradas equações de campo de Einstein ?o que proporciona uma nova maneira de se investigar efeitos anisotrópicos associados à expansão do Universo. Estes não excluem o cenário de um possível Big Rip? afirma Souza.

A hipótese do Big Rip (Grande Ruptura) foi apresentada pela primeira vez em 2003, em artigo publicado em Physical Review Letters. Ela diz que, se a quantidade de energia escura for suficiente para acelerar a expansão do Universo além de uma velocidade crítica, isso poderá causar uma ruptura no “tecido?do espaço-tempo.

“Ainda sob a perspectiva do parâmetro de Grüneisen, conjecturamos que a mudança de um regime de expansão desacelerada [na era dominada pela radiação e pela matéria] para um regime de expansão acelerada [na era dominada pela energia escura] se assemelha a uma transição de fase termodinâmica. Isso porque demonstramos que Γeff muda de sinal quando a expansão do universo muda de desacelerada para acelerada. Tal mudança de sinal de assemelha-se à assinatura típica de transições de fase na física da matéria condensada? acrescenta Souza.

Como se sabe, a energia escura foi associada à constante cosmológica Λ [lambda]. Primeiro postulada e depois rejeitada por Einstein, a constante cosmológica foi reabilitada quando se descobriu que a expansão do Universo estava acelerando em vez de desacelerar. O modelo hegemônico, chamado de Λ-CMD(Lambda-Cold Dark Matter), confere à constante cosmológica um valor fixo. Isto é, supõe que a densidade da energia escura se mantenha constante à medida que o Universo expande. Mas existem outros modelos que assumem que densidade da energia escura, e consequentemente Λ, variem no tempo.

“Atribuir um valor fixo para lambda equivale a atribuir também um valor fixo para ômega. Mas o reconhecimento de ω como o parâmetro de Grüneisen efetivo permite inferir uma dependência temporal de ω à medida que o Universo expande na era dominada pela energia escura. E isso implica diretamente em uma dependência temporal de Λ ou da constante universal de gravitação? sublinha Souza. O estudo, como se percebe, abre uma nova via de interpretação da expansão do Universo sob a luz da termodinâmica e de conceitos da física da matéria condensada e pode vir a ter importantes desdobramentos.

Além de Souza e Squillante, participaram do estudo os pesquisadores Antonio Seridonio (Unesp de Ilha Solteira), Roberto Lagos-Monaco (Unesp de Rio Claro), Gabriel Gomes (Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo, IAG-USP), Guilherme Nogueira (Unesp de Rio Claro) e a doutoranda Isys Mello, orientanda de Souza.

O trabalho recebeu apoio da FAPESP por meio de dois projetos (11/22050-4 e 18/09413-0).

O artigo Exploring the expansion of the universe using the Grüneisen parameter pode ser acessado em: www.sciencedirect.com/science/article/pii/S2211379724000263?via%3Dihub.

The post Estudo utiliza conceitos da termodinâmica para descrever a expansão do Universo appeared first on Giz Brasil.

]]>
????? ?? ? ?? ???? ?? ?? 20 ???????,??????,????????? //emiaow553.com/inteligencia-artificial-decifra-parte-de-papiro-da-antiguidade/ Mon, 25 Mar 2024 21:23:14 +0000 //emiaow553.com/?p=560244 Equipe brasileira está entre os vencedores do prêmio internacional Vesuvius Challenge para identificar escrita em rolos carbonizados há quase 2 mil anos

The post Inteligência artificial decifra parte de papiro da Antiguidade appeared first on Giz Brasil.

]]>
Texto: Maria Guimarães/Revista Pesquisa Fapesp

O Vesuvius Challenge propõe um desafio: desenrolar virtualmente papiros carbonizados durante uma das erupções do vulcão Vesúvio, na Itália, há quase 2 mil anos. “Apesar de armazenados há décadas em museus na Itália, eles haviam sido dados como perdidos? conta o cientista da computação Odemir Bruno, do Instituto de Física de São Carlos da Universidade de São Paulo (IFSC-USP), integrante de uma das equipes vencedoras. A cerimônia de premiação aconteceu no dia 16/3 na Villa Getty, em Los Angeles, Estados Unidos. O local é uma reprodução da mansão do Império Romano onde os papiros foram encontrados e três brasileiros estavam lá, celebra o pesquisador, que não pôde comparecer.

“Achava-se que não restava nada escrito neles, as tentativas anteriores destruíram o material? relata Bruno. Os papiros foram desenterrados em 1750, em Herculano, Itália, inicialmente por um fazendeiro que cavava um poço e encontrou a mansão que provavelmente pertenceu a Lúcio Calpúrnio Pisão Cesonino (?-43 a.C), sogro do imperador Júlio César (100 a.C.-44 a.C.). As cinzas que soterraram a edificação preservaram, pelo que se sabe até agora, mais de 600 rolos de papiro. Em contato com o ar, já se teriam desfeito.

A carbonização paradoxalmente os preservou, protegidos da decomposição natural, mas como abri-los? A resposta veio em 2015, quando o cientista da computação norte-americano Brent Seales, da Universidade do Kentucky, propôs usar a digitalização por tomografia de raios X para registrar e virtualmente desenrolar os papiros. Foi esse o ponto de partida do concurso lançado em 2023: seria investigado um dos quatro rolos digitalizados no acelerador de partículas Diamond, no Reino Unido. O processo gera uma infinidade de imagens que, empilhadas, formam uma imagem tridimensional. O prêmio foi criado pelos investidores norte-americanos Nat Friedman e Daniel Gross, em parceria com Seales, e custeado por uma série de financiadores ?sobretudo a Fundação Musk.

“A técnica para desenrolar estava desenvolvida, mas continuava tudo preto? conta Bruno. Isto é, não dava para enxergar nada. Haveria algum resquício identificável de tinta no material carbonizado? O caminho foi apelar à inteligência artificial para encontrar as marcas. “Uma comunidade global de competidores e colaboradores se uniu para desvendar o problema com visão computacional, aprendizado de máquina e trabalho duro? relata o site do concurso. O primeiro desafio, identificar uma letra, foi superado pelo físico australiano Casey Handmer. Ele descobriu, nas imagens, padrões craquelados que sugeriam a forma de letras. Depois disso, a ambição foi crescendo.

 O desafio de 2023 permitiu detectar 5% do texto

O desafio de 2023 permitiu detectar 5% do texto. Imagem: Institut de France? Vesuvius Challenge

O objetivo da etapa final era ler, em um dos quatro pergaminhos já digitalizados, quatro trechos com um mínimo de 140 caracteres, reconhecendo ao menos 85% deles. A meta foi ultrapassada pelas quatro equipes vencedoras. Em primeiro lugar ficou a composta por um doutorando em biorrobótica egípcio, um estudante de engenharia norte-americano e um estudante de robótica suíço, que receberam US$ 700 mil de prêmio. Em segundo lugar, três equipes empataram e receberam US$ 50 mil cada uma ?uma delas brasileira, liderada pelo físico computacional Elian Rafael Dal Prá, estudante de iniciação científica, com participação também de Leonardo Scabini, pesquisador em estágio de pós-doutorado, ambos do grupo de Bruno. “Dal Prá leu sobre o prêmio e trouxe a ideia para nosso grupo, então resolvemos mudar seu projeto? conta o orientador, que avalia que essa forma criativa de abordar um enigma científico foi um sucesso, atraiu muitos jovens e divulgou o assunto.

O desafio é mais do que uma competição. De acordo com o site, o avanço não teria se dado sem que os resultados das etapas sucessivas fossem compartilhados com toda a comunidade. Bruno define os adversários: “Somos colegas, o avanço na leitura se dá pela combinação dos resultados de todos? Essa etapa pós-computacional é feita por uma equipe de historiadores e papirólogos, ávidos por decifrar os escritos milenares. O que dá para saber por enquanto é que o texto foi escrito em grego e tem por base a filosofia de Epicuro, em que o prazer tem importância central. Na parte decifrada, que corresponde a 5% do total, o autor ?supostamente Filodemo, aprendiz de Epicuro, que seria filósofo residente na mansão ?se questiona se a disponibilidade de bens afeta o prazer que proporcionam. “Como é o caso com respeito à comida, não pensamos de imediato que as coisas escassas sejam absolutamente mais prazerosas do que aquelas que são abundantes? escreveu.

Este ano, Dal Prá entrou no mestrado e pretende continuar o trabalho. “Não necessariamente para ganhar o próximo prêmio, mas queremos estudar quais avanços podem ser atingidos pelos códigos desenvolvidos no contexto do desafio? explica Bruno. A receita de bolo de cada equipe, ele conta, está disponível na plataforma Github para que qualquer pessoa possa continuar o desenvolvimento. “A comparação entre os quatro métodos premiados pode gerar conhecimento sobre estratégias computacionais que sejam úteis também para resolver outros problemas.?/p>

Da mesma maneira que os códigos computacionais conseguiram encontrar sinais de tinta em papiros carbonizados, também podem ajudar a identificar células tumorais em uma imagem, por exemplo. O grupo de São Carlos é reconhecido por seu trabalho com esse tipo de aplicação: o método computacional para análise de textura batizado como Radam (sigla para Random encoding of Aggregated Deep Activation Maps), descrito em novembro na revista científica Pattern Recognition, está há um ano no topo do ranking DTD, da plataforma ?em>papers with codes? grupo independente que compara resultados das publicações sobre inteligência artificial.

O desafio de 2024 será chegar a 90% de leitura dos quatro rolos já digitalizados. A corrida já começou.

Projetos
1. Rumo à convergência de tecnologias: De sensores e biossensores à visualização de informação e aprendizado de máquina para análise de dados em diagnóstico clínico (nº 18/22214-6); Modalidade Projeto Temático; Pesquisador responsável Osvaldo Novais de Oliveira Junior (USP); Investimento R$ 14.050.528,68.
2. Análise de autômato de rede (network automata) como modelo para processos naturais e biológicos (n° 21/08325-2); Modalidade Auxílio à Pesquisa ?Regular; Convênio Research Foundation ?Flanders (FWO) Pesquisador responsável Odemir Martinez Bruno (USP); Investimento R$ 333.063,71.

Artigo científico
SCABINI, L. et al. RADAM: Texture recognition through randomized aggregated encoding of deep activation maps. Pattern Recognition. v. 143, 109802. nov. 2023.

The post Inteligência artificial decifra parte de papiro da Antiguidade appeared first on Giz Brasil.

]]>
??? ?? ???2023? ?? ??? ????????? //emiaow553.com/video-mostra-construcao-de-detector-gigante-de-neutrinos-na-china/ Tue, 19 Mar 2024 16:29:05 +0000 //emiaow553.com/?p=558809 Novo observatório deve começar a detectar neutrinos até o final de 2024. Confira o vídeo timelapse da estrutura

The post Vídeo mostra construção de detector gigante de neutrinos na China appeared first on Giz Brasil.

]]>
O Observatório Subterrâneo de Neutrinos de Jiangmen — ou simplesmente “Juno” –, localizado 700 metros abaixo do solo em Kaiping, sudeste da China, está finalmente em fase final de construção.

O observatório, que custou US$ 376 milhões (cerca de R$ 1,8 bilhão), deve começar a detectar neutrinos até o final deste ano. Isso o tornará o primeiro de vários novos detectores de neutrinos que devem entrar em operação no mundo nos próximos anos. Outros dois, localizados no Japão e nos Estados Unidos, devem começar a coletar dados somente em 2027 e 2031.

O principal objetivo do Juno é ajudar os pesquisadores a determinar qual tipo de neutrino tem a maior massa e qual tem a menor, um dos maiores mistérios da física.

Um vídeo impressionante, publicado pela emissora chinesa CGTN mostra um timelapse com a construção do equipamento.

Veja o vídeo da construção de detector gigante de neutrinos:

Os neutrinos são partículas subatômicas conhecidas por sua capacidade de atravessar a matéria quase sem interação — o que lhes deu o apelido de “partículas fantasma? A detecção dessas partículas é extremamente desafiadora, mas essencial para entender fenômenos astrofísicos como supernovas e a própria formação do Universo.

O principal objetivo do Juno é ajudar os pesquisadores a determinar qual tipo de neutrino tem a maior massa e qual tem a menor. Esse é um dos maiores mistérios da física. Por isso, resolver esse problema poderia ajudar os físicos a entenderem de forma mais profunda o que são os neutrinos e por que sua massa é tão pequena.

Além disso, os pesquisadores do Juno também planejam fazer isso medindo neutrinos que vêm de duas usinas nucleares, localizadas a mais de 50 quilômetros de distância do observatório, explica um artigo da revista Nature.

Outro objetivo é estudar neutrinos que vêm de outras fontes. Isso inclui, por exemplo, o Sol, a atmosfera, estrelas explodindo e processos de decaimento radioativo natural dentro da Terra.

The post Vídeo mostra construção de detector gigante de neutrinos na China appeared first on Giz Brasil.

]]>
???? ???? ???? ??? ?? //emiaow553.com/como-cozinhar-seu-ovo-matinal-no-micro-ondas-segundo-a-ciencia/ Wed, 13 Mar 2024 10:01:17 +0000 /?p=557587 Cozinhar ovos no micro-ondas pode até ser mais simples, mas, se feito da forma errada, é bastante perigoso. Entenda por quê

The post Como cozinhar seu ovo matinal no micro-ondas, segundo a ciência appeared first on Giz Brasil.

]]>
Fritar ou cozinhar um ovo é um dos primeiros passos de alguém que decide aprender a cozinhar. Apesar de ser uma tarefa relativamente simples, ela pode demandar tempo de preparo e limpeza. Por isso, muitos buscam alternativas para simplificar o processo — e o micro-ondas é uma delas.

Mas diferentemente do que muitos cozinheiros de primeira viagem pensam, não basta colocar o ovo dentro do eletrodoméstico e configurar um tempo no painel. Seja para deixar o alimento cozido ou “frito”, é preciso entender algumas lições básicas da física para que as micro-ondas eletrônicas do aparelho não explodam seu ovo.

O que a física diz

Em geral, as micro-ondas do eletrodoméstico afetam primeiro moléculas polarizadas, fazendo com que elas se movimentem. Isso acontece para que elas entrem no campo eletromagnético do aparelho.

Assim, movimentar essas moléculas faz com que elas se choquem e, como resultado, produzem calor. No caso dos ovos, o micro-ondas faz com que as moléculas de água dentro do alimento se agitem e esquentem ao ponto de ferver.

Isso acontece especialmente nas gemas, que são mais receptivas à radiação. Pela maneira como as proteínas do ovo se organizam, bolsas de vapor d’água podem se formar e ficar muito quentes, aumentando a pressão dentro da casca até o ponto de explosão.

Um em cada 3 ovos cozidos, quando colocados no micro-ondas, costumam explodir. E a explosão pode alcançar um volume entre 86 e 133 decibéis — mais alto que um tiro. Além disso, a alta temperatura pode causar queimaduras graves na pele.

Dicas de como fazer seu ovo no micro-ondas

Para evitar a explosão, duas dicas são valiosas: aliviar a pressão dentro do ovo e esquentá-los gradualmente.

A primeira pode ser feita com um furo na casca. Já para a segunda dica, há mais opções. Se você vai cobrir o ovo para evitar sujeira no micro-ondas, faça isso com  algo que deixe o ar passar, como um guardanapo. 

Além disso, é possível cozinhar o alimento inicialmente por 30 segundos e, em seguida, em intervalos adicionais de dez segundos, conforme necessário.

E se quiser dicas de como fazer outros preparos com ovos no micro-ondas, confira o vídeo abaixo.

//www.instagram.com/reel/C38RbvEoXhl/?utm_source=ig_web_copy_link

The post Como cozinhar seu ovo matinal no micro-ondas, segundo a ciência appeared first on Giz Brasil.

]]>
?????????, ???, ????????????? //emiaow553.com/cientistas-descobrem-excecao-a-lei-da-fisica-de-mais-de-200-anos/ Sun, 10 Mar 2024 21:01:48 +0000 /?p=556196 A descoberta desafia as noções estabelecidas e pode ter implicações significativas em várias áreas da ciência e tecnologia. Saiba mais!

The post Cientistas descobrem exceção à lei da física de mais de 200 anos appeared first on Giz Brasil.

]]>
Após mais de 200 anos, pesquisadores identificaram uma exceção à lei da física que governa a transferência de calor há mais de dois séculos. A descoberta, publicada recentemente na revista Proceedings of the National Academy of Sciences, desafia as noções estabelecidas e pode ter implicações significativas em várias áreas da ciência e tecnologia.

A lei clássica da transferência de calor, formulada anteriormente por Joseph Fourier em 1822, estabelece que o fluxo de calor entre dois corpos é diretamente proporcional à diferença de temperatura entre eles.

No entanto, os cientistas da Universidade de Massachusetts Amherst (EUA), encontraram um cenário em que essa regra não se aplica.

O que diz o novo estudo sobre a lei da física de Fourier 

O experimento envolveu um material nanoestruturado especialmente projetado, composto por camadas ultrafinas de grafeno e óxido de titânio.

“Esta pesquisa começou com uma pergunta simples. E se o calor pudesse ser transmitido por outro caminho, não apenas aquele que as pessoas presumiam?”, disse Steve Granick, um dos autores da pesquisa.

Surpreendentemente, quando essas camadas foram empilhadas em configurações específicas, o fluxo de calor não seguiu a lei de Fourier. Em vez disso, os pesquisadores observaram uma transferência de calor mais eficiente do que o previsto.

As implicações dessa descoberta são vastas. Primeiro, ela pode levar a avanços na eficiência de dispositivos de resfriamento, como radiadores e sistemas de refrigeração. Além disso, a compreensão aprimorada da transferência de calor pode beneficiar áreas como eletrônica, energia solar e até mesmo a exploração espacial.

“Não é que a Lei de Fourier esteja errada? Granick enfatiza. “Só que ela não explica tudo o que vemos quando se trata de transmissão de calor. Pesquisas fundamentais como a nossa nos dão uma compreensão ampliada de como o calor funciona, o que oferecerá aos engenheiros novas estratégias para projetar circuitos de aquecimento.?/p>

Agora, a comunidade científica deve replicar e explorar esses resultados em diferentes contextos.

Por fim, a expectativa é que essa exceção possa abrir portas para aplicações revolucionárias e mudar nossa compreensão fundamental da lei da física da transferência de calor.

The post Cientistas descobrem exceção à lei da física de mais de 200 anos appeared first on Giz Brasil.

]]>
?? ?????? ??????? 2024??? ??? ?? //emiaow553.com/concluida-mais-uma-etapa-do-megaprojeto-dune-que-visa-desvendar-os-misterios-do-universo/ Tue, 06 Feb 2024 18:57:40 +0000 /?p=550266 Foi finalizada nos Estados Unidos a escavação das três cavernas que abrigarão os gigantescos detectores de partículas do Deep Underground Neutrino Experiment, um dos mais ambiciosos experimentos científicos já idealizados

The post Concluída mais uma etapa do megaprojeto Dune, que visa desvendar os mistérios do Universo appeared first on Giz Brasil.

]]>
Texto: Agência FAPESP

Foi concluída a escavação das três cavernas em que serão instalados os gigantescos detectores de partículas do projeto Deep Underground Neutrino Experiment (Dune), um dos mais ambiciosos experimentos científicos já idealizados. Localizadas a 1,6 quilômetro abaixo da superfície, em Dakota do Sul, Estados Unidos, as cavernas abrigarão um novo centro de pesquisa que abrange uma área subterrânea do tamanho de oito campos de futebol.

Hospedados pelo Fermi National Accelerator Laboratory (Fermilab), do Departamento de Energia norte-americano, os cientistas do Dune pretendem estudar o comportamento de partículas misteriosas conhecidas como neutrinos para resolver algumas das maiores questões sobre o Universo. Por que ele é composto de matéria? Como a explosão de uma estrela cria um buraco negro? Os neutrinos estão ligados à matéria escura ou a outras partículas desconhecidas?

As cavernas oferecem espaço para quatro grandes detectores de neutrinos ?cada um deles do tamanho aproximado de um prédio de sete andares. Os detectores serão preenchidos com argônio líquido e registrarão a rara interação dos neutrinos com o líquido transparente.

Trilhões de neutrinos viajam pelo nosso corpo a cada segundo, sem que percebamos. Com o Dune, os cientistas procurarão neutrinos em estrelas em explosão e examinarão o comportamento de um feixe de neutrinos produzido no Fermilab, localizado perto de Chicago, cerca de 1.300 quilômetros a leste das cavernas subterrâneas. O feixe, produzido pela fonte de neutrinos mais intensa do mundo, viajará através da terra e das rochas, desde o Fermilab até os detectores do Dune, em Dakota do Sul.

“A conclusão da escavação dessas enormes cavernas é uma conquista significativa para o projeto? disse Chris Mossey, diretor da iniciativa, em comunicado divulgado ontem (01/02) pela Assessoria de Imprensa do Fermilab. “A conclusão desta etapa possibilita a instalação dos detectores? acrescentou.

Ainda este ano, a equipe planeja iniciar a instalação da estrutura de aço isolada que abrigará o primeiro detector de neutrinos. O objetivo é ter o primeiro detector operacional até 2028.

A colaboração Dune, que inclui mais de 1.400 cientistas e engenheiros de mais de 200 instituições em 36 países, testou com sucesso a tecnologia e o processo de montagem do primeiro detector. A produção em massa de seus componentes já começou. Os testes das tecnologias subjacentes a ambos os detectores estão em curso utilizando feixes de partículas no laboratório da Organização Europeia para a Investigação Nuclear (Cern).

Pesquisadores brasileiros também integram a colaboração internacional. Os professores da Universidade Estadual de Campinas (Unicamp) Ettore Segreto e Ana Amélia Machado desenvolveram com apoio da FAPESP o sistema de detecção de fótons que será usado no experimento, denominado X-Arapuca (leia mais em: agencia.fapesp.br/50721, agencia.fapesp.br/29775, agencia.fapesp.br/28265, agencia.fapesp.br/25451 e agencia.fapesp.br/24316).

Mais informações em: //lbnf-dune.fnal.gov/how-it-works/introduction/.

The post Concluída mais uma etapa do megaprojeto Dune, que visa desvendar os mistérios do Universo appeared first on Giz Brasil.

]]>
??? ??????2024? ??? ????? ?????? ??????? ?? //emiaow553.com/arno-penzias-um-dos-pais-da-teoria-do-big-bang-morre-aos-90-anos/ Tue, 23 Jan 2024 15:09:12 +0000 /?p=547813 Vencedor do Prêmio Nobel de Física em 1978, o físico deixa como seu legado evidências para a teoria do Big Bang

The post Arno Penzias, um dos pais da teoria do Big Bang, morre aos 90 anos appeared first on Giz Brasil.

]]>
O físico norte-americano Arno Penzias faleceu na última segunda-feira (22), aos 90 anos. Envolvido em estudos cosmológicos, sua maior contribuição científica foi fornecer evidências incontestáveis da explicação atualmente mais aceita para a origem e evolução do universo: o Big Bang.

“Sua descoberta marcou uma transição entre um período em que a cosmologia era mais filosófica, com muito poucas observações, e uma era de ouro da cosmologia observacional”, disse Paul Halpern, físico da Universidade de St. Joseph em Filadélfia, nos EUA, ao New York Times.

De acordo com o filho do cientista, Penzias sofria com complicações da doença de Alzheimer. Ele já estava sob instalações de assistência em São Francisco, nos Estados Unidos. Sua morte foi uma consequência deste quadro.

Contribuições científicas

Antes da pesquisa de Penzias, junto ao astrônomo Robert Wilson, a teoria do Big Bang competia com a teoria do estado estacionário para explicar a origem do universo. 

Enquanto uma se baseava em uma grande explosão que deu origem aos elementos que conhecemos, há 14 bilhões de anos, a outra considerava que o universo se expandiu de maneira mais estática, formando novas matérias para preencher as lacunas que existiam.

Então, em 1961, Penzias e Wilson decidiram usar uma antena de rádio para fazer medições do Universo. Na época, pesquisadores desenvolveram a antena para comunicações via satélite, não com finalidade científica. Mas a dupla queria usar o equipamento para estudar galáxias de uma maneira inédita.

Os cientistas Robert Wilson e Arno Penzias posam à frente da antena que captou a radiação cósmica de fundo. Imagem: National Park Service

Enquanto instalavam o equipamento, já no ano de 1964, encontraram um zumbido persistente e inexplicável de ondas de rádio. Acharam curioso, porque parecia vir de todas as direções do céu, não importava para onde apontavam a antena.

De início, pensaram que poderiam ser ruídos da cidade ou de alguma explosão nuclear. Por fim, descobriram que o zumbido era resultado de um eco cósmico, que tinha como base uma forma de radiação residual deixada pelo Big Bang.

Para isso, Penzias e Wilson contaram com a colaboração de pesquisadores da Universidade de Princeton, que haviam prevista a possibilidade dessa radiação existir. Mas, finalmente, o debate sobre a origem do universo estava resolvido.

Por isso, os cientistas ganharam o Prêmio Nobel de Física em 1978 e, a partir de então, o interesse pela astronomia guiou o trabalho de Arno Penzias, que agora deixa seu legado.

The post Arno Penzias, um dos pais da teoria do Big Bang, morre aos 90 anos appeared first on Giz Brasil.

]]>
???? ?? ???? 2024-2025? ??? ??? ?? //emiaow553.com/estudo-esclarece-questao-chave-da-fisica-de-particulas/ Fri, 19 Jan 2024 11:03:09 +0000 /?p=545610 Resultado, que identifica a origem da divergência nas previsões recentes do momento magnético do múon, pode contribuir para a prospecção de efeitos de nova física, incluindo matéria escura

The post Estudo esclarece questão-chave da física de partículas appeared first on Giz Brasil.

]]>

Texto: José Tadeu Arantes | Agência FAPESP

Momento magnético é a grandeza que quantifica a interação de uma partícula dotada de spin com um campo magnético, como o de um ímã. Assim como a massa e a carga elétrica, o momento magnético é uma das grandezas fundamentais da física. Existe uma diferença entre o valor teórico do momento magnético do múon, uma partícula que pertence à mesma classe do elétron, e os valores obtidos nos experimentos de altas energias, realizados nos aceleradores de partículas. A diferença só aparece na oitava casa decimal, mas vem intrigando os cientistas desde 1948, quando foi descoberta. E não se trata de um detalhe, pois essa diferença pode indicar que o múon interaja com partículas de matéria escura, outros bósons de Higgs ou, até mesmo, que existam forças diferentes das conhecidas envolvidas no processo.

O valor teórico do momento magnético do múon, representado pela letra “g? obtido a partir da equação de Dirac (formulada pelo físico inglês Paulo Dirac, 1902-1984, Prêmio Nobel de Física de 1933, um dos fundadores da mecânica e da eletrodinâmica quânticas), é igual a 2. Mas sabemos, hoje, que g não é exatamente igual a 2 e, por isso, existe um grande interesse em entender “g-2? isto é, a diferença entre o valor experimental e o valor previsto pela equação de Dirac. O melhor valor experimental disponível atualmente, obtido com precisão impressionante no Fermilab, o Fermi National Accelerator Laboratory, nos Estados Unidos, e divulgado em agosto de 2023, é 2,00116592059, mais ou menos 0,00000000022. Informações sobre o experimento realizado no Fermilab, chamado “Muon g-2? podem ser acessados em: //muon-g-2.fnal.gov/.

“A determinação precisa do momento magnético do múon tornou-se uma questão central de física de partículas, pois a investigação desse intervalo entre os dados experimentais e as previsões da teoria pode nos proporcionar informações que levem à descoberta de algum efeito novo e espetacular? diz à Agência FAPESP o físico Diogo Boito, professor do Instituto de Física de São Carlos da Universidade de São Paulo (IFSC-USP).

Ele e colaboradores acabam de publicar um estudo a respeito em Physical Review Letters.

“Nossos resultados foram apresentados em dois importantes eventos internacionais. Primeiro por mim, em um workshop em Madri, na Espanha. Depois por meu colega Maarten Golterman, da San Francisco State University, em um encontro realizado em Berna, na Suíça? conta Boito.

Esses resultados quantificam e apontam para a origem de uma discrepância entre os dois métodos utilizados nas previsões atuais de g-2. O pesquisador detalha: “Existem atualmente dois métodos para determinar um componente fundamental de g-2. O primeiro baseia-se em dados experimentais. O segundo em simulações computacionais da cromodinâmica quântica (quantum chromodynamics, ou QCD, em inglês), a teoria que estuda as interações fortes entre os quarks. Os dois métodos levam a resultados bastante distintos e isso constitui um grande problema. Sem resolvê-lo, torna-se impossível investigar as contribuições de eventuais partículas exóticas, por exemplo, de novos bósons de Higgs ou de matéria escura, no resultado de g-2?

O estudo conseguiu explicar tal discrepância. Mas, para entender isso, é preciso dar alguns passos para trás e recomeçar com uma descrição um pouco mais pormenorizada do múon.

O múon é uma partícula que pertence à classe dos léptons ?a mesma do elétron. Porém, possui massa muito maior. E, por causa disso, não é estável, sobrevivendo apenas por intervalos de tempo curtíssimos, em contextos de altas energias. Quando interagem entre si, na presença de campos magnéticos, os múons se desconfiguram e reconfiguram, trazendo à presença um grande número de outras partículas: elétrons, pósitrons, bósons W e Z, bósons de Higgs, fótons etc. Assim, nos contextos experimentais, o múon sempre se apresenta acompanhado por miríades de partículas virtuais. São as contribuições dessas partículas que fazem com que o momento magnético efetivo, medido nos experimentos, seja maior do que o momento magnético teórico, igual a 2, calculado pela equação de Dirac.

“Para obter tal diferença [g-2], é preciso considerar todas essas contribuições. Tanto aquelas que a cromodinâmica quântica [que compõe o modelo-padrão da física de partículas] prevê, quanto outros efeitos menores, mas que aparecem em medições experimentais muito precisas. Já conhecemos muito bem várias dessas contribuições. Mas não todas? afirma Boito.

Os efeitos decorrentes da interação forte não podem ser calculados teoricamente apenas, pois esses cálculos de cromodinâmica quântica são impraticáveis em alguns regimes de energia. Assim, existem duas possibilidades. Uma delas, que já possui um lastro histórico, é recorrer aos dados experimentais obtidos nas colisões de elétrons com pósitrons, que geram outras partículas formadas por quarks. A outra, que se tornou competitiva apenas na década de 2020, é simular, com base na teoria, o processo em supercomputadores. Trata-se da chamada “QCD na rede?

“O problema central da previsão de g-2 hoje em dia é que o resultado que se obtém usando os dados das colisões elétron-pósitron estão em desacordo com o resultado experimental total, enquanto os resultados baseados na QCD na rede estão em bom acordo com o experimento. E ninguém sabia ao certo por que isso acontecia. Nosso estudo esclarece parte desse quebra-cabeça? comenta Boito.

Foi exatamente para resolver esse problema que ele e colaboradores realizaram o estudo em pauta. “O artigo atual é resultado de uma série de trabalhos nossos nos quais desenvolvemos um método novo para comparar os resultados de simulação de rede com aqueles obtidos a partir dos dados experimentais. Mostramos ser possível extrair, dos dados, contribuições que são calculadas na rede com grande precisão: a contribuição dos diagramas de Feynman ditos conectados? informa o pesquisador.

Aqui é preciso abrir um pequeno parêntese para dizer que os diagramas de Feynman, criados no final da década de 1940 pelo físico norte-americano Richard Feynman (1918-1988), Prêmio Nobel de Física de 1965, são representações gráficas utilizadas para descrever as interações entre partículas e simplificar os respectivos cálculos.

“No presente estudo, obtivemos, pela primeira vez, com grande precisão, as contribuições dos diagramas de Feynman conectados na chamada ‘janela intermediária de energia? Hoje, temos oito resultados para essas contribuições, obtidos com simulações de QCD na rede, e todos eles em bom acordo entre si. E mostramos que os resultados vindos dos dados da interação elétron-pósitron não concordam com esses oito resultados das simulações? afirma Boito.

Segundo o pesquisador, isso possibilita entender onde está o problema e quais seriam as possíveis soluções para ele. “Ficou claro que, se os dados experimentais para o canal de dois píons [mésons, isto é, partículas formadas por um quark e um antiquark, produzidas em colisões de alta energia] estiverem subestimados por alguma razão, esta pode ser a causa da discrepância? resume. De fato, dados novos, ainda em processo de revisão por pares, do Experimento CMD-3, realizado na Universidade de Novosibirsk, na Rússia, parecem indicar que os dados mais antigos do canal de dois píons poderiam estar, por alguma razão, subestimados.

Todo o trabalho feito por Boito neste estudo foi realizado no contexto de seu projeto ?strong>Testes do modelo padrão: QCD de precisão e g-2 do múon? contemplado com Auxílio à Pesquisa Jovens Pesquisadores Fase 2 pela FAPESP.

O artigo Data-driven determination of the light-quark connected component of the intermediate-window contribution to the muon g-2 pode ser acessado em: //journals.aps.org/prl/abstract/10.1103/PhysRevLett.131.251803.

The post Estudo esclarece questão-chave da física de partículas appeared first on Giz Brasil.

]]>
??????????,??????,????????? //emiaow553.com/veteranos-do-projeto-niobio-tentam-resgata-lo-do-esquecimento/ Fri, 24 Nov 2023 00:12:27 +0000 /?p=534899 Há 45 anos, pesquisadores e técnicos começaram a desenvolver tecnologia nacional para a produção do metal em Lorena (SP)

The post Veteranos do Projeto Nióbio tentam resgatá-lo do esquecimento appeared first on Giz Brasil.

]]>
Texto: Ricardo Balthazar/Revista Pesquisa Fapesp

Quando o engenheiro e físico baiano José Walter Bautista Vidal (1934-2013) saiu em busca de gente capaz de executar um ambicioso programa de desenvolvimento tecnológico concebido pelo governo brasileiro em 1978, o engenheiro Daltro Garcia Pinatti (1940-2021) pareceu a pessoa certa para a missão. Ele era professor do Instituto de Física da Universidade Estadual de Campinas (Unicamp) e se dedicava desde 1973 a pesquisas sobre nióbio, um metal maleável, brilhante e versátil.

Entre 1978 e 1991, o engenheiro liderou o Projeto Nióbio, cujo objetivo era desenvolver tecnologia nacional para a produção de nióbio metálico. A empreitada consumiu milhões de dólares do governo federal e de empresas privadas, e mobilizou mais de uma centena de pesquisadores e técnicos num galpão na zona industrial de Lorena, no interior de São Paulo. Pouco conhecido até entre especialistas, o projeto faz parte das origens da Escola de Engenharia de Lorena (EEL), que hoje é uma das unidades da Universidade de São Paulo (USP) e comemorou em agosto os 45 anos do início da aventura.

Rosa Conte e Pinatti com um forno de fusão por feixe de elétrons, em 1980, durante visita à empresa Leybold-Heraeus, em Hanau, na Alemanha

Rosa Conte e Pinatti com um forno de fusão por feixe de elétrons, em 1980, durante visita à empresa Leybold-Heraeus, em Hanau, na AlemanhaAcervo do Departamento de Engenharia de Materiais? EEL? USP

O trabalho contribuiu para que a Companhia Brasileira de Metalurgia e Mineração (CBMM), empresa que controla os maiores depósitos de nióbio do mundo em Araxá (MG), dominasse a tecnologia de produção do nióbio metálico, usado na fabricação de fios supercondutores para tomógrafos, aparelhos de ressonância magnética e outras aplicações. “Nossa missão era desenvolver uma planta-piloto e transferir a tecnologia para a indústria? diz a física Rosa Ana Conte, que foi aluna de Pinatti na graduação e na pós-graduação na Unicamp, participou do Projeto Nióbio desde o começo e hoje leciona em Lorena. “Fizemos a nossa parte.?/p>

Formado na Escola de Engenharia de São Carlos (EESC) da USP em 1964, Pinatti fez o mestrado e o doutorado na Universidade Rice, no Texas, nos Estados Unidos, no fim da década de 1960. O aprendizado foi decisivo para o êxito do Projeto Nióbio. Em Rice, ele tinha um forno de fusão por feixe de elétrons, à disposição para pesquisar as propriedades do molibdênio e ligas para aplicações em altas temperaturas.

O equipamento era utilizado para refinar o metal e obter amostras com elevado grau de pureza, o que aumentava a resistência do material e sua utilidade para aplicações especiais como, por exemplo, o escudo de proteção térmica da cápsula desenvolvida pelo programa espacial norte-americano para a primeira viagem tripulada à Lua. No Brasil, Pinatti conseguiu que a Unicamp comprasse um forno semelhante para seu laboratório no Instituto de Física, importado da fabricante alemã Leybold-Heraeus, para pesquisas com metais especiais.

O equipamento chegou em 1974 e Pinatti o usou para desenvolver um novo processo de refino do nióbio, aplicando o conhecimento adquirido nos experimentos com o molibdênio. Até então, a rota tradicional para a produção de materiais como o nióbio metálico envolvia processos químicos muito dispendiosos. Com o forno alemão, Pinatti conseguiu substituí-los por um processo físico, em que as altas temperaturas geradas pelos feixes de elétrons no interior da máquina produzissem efeito semelhante, só que a um custo muito menor.

Após 45 anos, alguns dos pesquisadores e técnicos que participaram do Projeto Nióbio: Sebastião Ribeiro, Rodolfo José Lopes, Rosa Conte, Carlos Roberto Dainesi e Antonio Sartori (da esquerda para a direita)

Após 45 anos, alguns dos pesquisadores e técnicos que participaram do Projeto Nióbio: Sebastião Ribeiro, Rodolfo José Lopes, Rosa Conte, Carlos Roberto Dainesi e Antonio Sartori (da esquerda para a direita). Imagem: Léo Ramos Chaves? Revista Pesquisa FAPESP

Desperdício da riqueza

O pesquisador levou alguns anos para desenvolver a técnica e alcançar os primeiros resultados no laboratório da Unicamp, mas não demorou para que seu caminho cruzasse com o de Bautista Vidal. Chefe da Secretaria de Tecnologia Industrial do Ministério da Indústria e do Comércio no governo do general Ernesto Geisel (1974-1978), o físico baiano coordenava iniciativas para reduzir a dependência do Brasil de petróleo importado, adquirir tecnologias que o país não dominava e buscar autonomia em áreas consideradas estratégicas.

Quando o assunto era o nióbio, Pinatti e Bautista Vidal compartilhavam o diagnóstico de que o Brasil aproveitava mal suas enormes reservas, limitando-se a exportar minério bruto extraído da terra em vez de produtos que agregassem valor ao metal e criassem nichos de mercado. “Basicamente, nós exportávamos terra com nióbio, e isso não fazia sentido? explica o físico Antonio Fernando Sartori, outro ex-aluno que trabalhou com Pinatti na Unicamp e em Lorena e continuou dando aulas na EEL após o fim do projeto. “Era um desperdício da riqueza que possuímos.?/p>

A equipe de Pinatti na Unicamp conseguiu produzir várias amostras na forma de pequenos lingotes, cilindros maciços com 25 centímetros (cm) de comprimento, 5 cm de diâmetro e 4,2 quilos (kg) de peso. Em 1978, Bautista Vidal levou o material à Alemanha para submetê-lo a testes de qualidade. As análises comprovaram que as amostras produzidas pelos cientistas brasileiros tinham elevada pureza e convenceram os alemães a firmar um acordo de cooperação com a secretaria de Vidal para desenvolver a tecnologia em escala-piloto.

Forno de fusão e refino por feixe de elétrons utilizado nos anos 1980 e 1990, em Lorena

Forno de fusão e refino por feixe de elétrons utilizado nos anos 1980 e 1990, em Lorena. Imagme: Léo Ramos Chaves? Revista Pesquisa FAPESP

Pinatti ia precisar de um forno maior, um local adequado para sua instalação e dinheiro para financiar obras e contratar pesquisadores e técnicos. A solução encontrada foi abrigar o projeto sob o guarda-chuva de uma fundação privada, que poderia receber recursos públicos e de empresas e teria a flexibilidade necessária para viabilizar o empreendimento, sem as amarras da burocracia federal. Para agilizar o processo, o Ministério da Indústria e do Comércio assumiu o controle de uma fundação municipal que geria a Faculdade de Engenharia Química de Lorena, que enfrentava dificuldades financeiras, e rebatizou-a de Fundação de Tecnologia Industrial (FTI), em 1978.

Bautista Vidal usou arranjo semelhante para outros projetos. O que recebeu maior volume de recursos foi o Proálcool, que incentivou a produção de álcool combustível e o desenvolvimento de novos motores para automóveis. “Tecnologia é poder? disse o físico baiano em 1996, em depoimento a pesquisadores do Centro de Pesquisa e Documentação de História Contemporânea do Brasil (CPDOC), da Fundação Getulio Vargas (FGV). “Quando assumi, ocupava duas salas próximas ao gabinete do ministro. Quando saí, [a secretaria] estava instalada em um prédio de 12 andares.?/p>

O grupo Peixoto de Castro, que fabrica tubos de aço em Lorena e tem negócios na indústria química, doou o terreno e forneceu estruturas metálicas para sustentar as instalações do Projeto Nióbio. A Companhia Siderúrgica Nacional e a Companhia Ferro e Aço de Vitória, que eram estatais na época, doaram parte do aço usado na construção. A obra só acabou um ano após a chegada do novo forno, construído pela Leybold-Heraeus de acordo com instruções de Pinatti. O equipamento custou cerca de US$ 1 milhão, o equivalente a US$ 3,5 milhões em dinheiro de hoje, segundo o engenheiro Carlos Alberto Baldan, que dirigiu a FTI e trabalhou com Pinatti do início do projeto até 2018.

Em 2008, o Departamento de Engenharia de Materiais da EEL homenageou Pinatti

Em 2008, o Departamento de Engenharia de Materiais da EEL homenageou Pinatti. Imagem: Simone Colombo/EEL/USP

Os dois canhões de elétrons do forno tinham potência de 300 quilowatts, consumindo energia equivalente à que seria necessária para manter 100 chuveiros elétricos ligados simultaneamente. Uma bomba de vácuo com capacidade para extrair do interior do forno 18 mil litros de ar por segundo garantia o ambiente adequado para a purificação do metal. Uma torre de refrigeração foi construída ao lado do galpão para garantir volume de água suficiente para resfriar o material produzido pela máquina. O equipamento fabricava lingotes maiores, com 1,2 metro (m) de comprimento, até 13 cm de diâmetro e peso de 136 kg, e tinha capacidade para refinar 20 toneladas de metal por ano.

A CBMM foi o maior cliente do projeto de Lorena. Fundada pela família Moreira Salles em 1955, a companhia investiu pelo menos US$ 3,5 milhões nos projetos desenvolvidos com a FTI na década de 1980, de acordo com um relatório da empresa preservado pelo Arquivo Nacional, ou quase US$ 10 milhões em valores atualizados. Seus contratos previam, além dos serviços de refino do nióbio, treinamento para funcionários da companhia e assistência técnica por cinco anos depois que a CBMM adquirisse seu próprio forno. Em troca, a fundação receberia 1% do faturamento dos lingotes produzidos em escala industrial.

Os recursos federais que financiaram o Projeto Nióbio se esgotaram com a crise econômica em que o país afundou na década de 1980, e o arranjo institucional precário que sustentava a FTI começou a chamar a atenção do Tribunal de Contas da União com o fim do regime militar, em 1985. O fluxo de verbas foi interrompido em 1990, a fundação municipal foi extinta e o governo do estado de São Paulo acabou absorvendo a escola de engenharia no ano seguinte, abrindo caminho para sua incorporação à USP. “Ficamos cinco meses sem salários, no limbo, até que se encontrasse uma solução? lembra a física Conte.

Galpão que abriga maquinário e equipamentos utilizados na produção do nióbio metálico

Galpão que abriga maquinário e equipamentos utilizados na produção do nióbio metálico. Imagem: Léo Ramos Chaves? Revista Pesquisa FAPESP

O último contrato da CBMM com os pesquisadores de Lorena expirou em 1995, sem que houvesse renovação. O forno de Pinatti continuou funcionando por algum tempo após o fim do Projeto Nióbio, atendendo encomendas de indústrias e institutos de pesquisa até ser desativado no início dos anos 2000. O equipamento continua montado em seu galpão, mas não há como colocá-lo em operação sem trocar o sistema eletrônico de controle e religar linhas de alta tensão. “Ele ficou ultrapassado? diz Rodolfo José Lopes, técnico da escola que trabalhou na manutenção do forno desde sua chegada.

Boa parte da documentação do projeto se perdeu com os solavancos sofridos pelos pesquisadores de Lorena. O Departamento de Engenharia de Materiais da escola guarda papéis e fotografias antigas, mas até hoje não conseguiu organizar o material adequadamente. No ano passado, quando a USP abriu um processo para a seleção de projetos de preservação de acervos históricos das suas unidades, os veteranos do Projeto Nióbio pediram recursos para resgatar a história do empreendimento e criar um memorial no galpão de Lorena, mas o pedido não foi aprovado.

A CBMM seguiu com seu próprio projeto e, no ano passado, faturou R$ 11 bilhões e obteve lucros de R$ 4,5 bilhões. A maior parte das suas receitas vem das exportações de ferro-nióbio, liga usada pelas siderúrgicas para fabricar aços mais resistentes. Sua planta industrial tem capacidade para produzir 270 toneladas de nióbio metálico por ano, mas as vendas de produtos especiais como esse representam menos de um décimo do faturamento total. Os Moreira Salles, que também são acionistas do Itaú Unibanco, continuam no comando do negócio, e agora têm empresas japonesas, coreanas e chinesas como sócias. Elas estão organizadas em dois consórcios, cada um com 15% das ações.

A companhia prevê investir neste ano R$ 300 milhões em pesquisa e desenvolvimento, o equivalente a 3% do seu faturamento. Há mais de duas centenas de projetos em andamento, a maioria em parceria com institutos e universidades no Brasil e no exterior. O objetivo principal hoje é usar o nióbio para desenvolver baterias de lítio mais eficientes para carros elétricos. Não há nenhum projeto com a EEL-USP em andamento. No site da CBMM, não existe menção à contribuição que os pesquisadores de Lorena deram à companhia no passado.

Artigos científicos
MARCOMINI, J. B. e CONTE, R. A. Refino em forno de feixe de elétrons. Revista ABM Metalurgia, Materiais & Mineração. v. 71, março/abril de 2015. p. 156-9.
CASTRO, M. H. M. e SCHWARTZMAN, S. Tecnologia para a indústria: A história do Instituto Nacional de
Tecnologia
. Rio de Janeiro: Centro Edelstein de Pesquisas Sociais. 2008.
SARMENTO, C. E. B. Ciência, indústria e soberania nacional: As transformações na política tecnológica brasileira na década de 1970 ?Memória e projeto. Revista História Oral, v. 2, junho de 1999. p. 153-66.

Relatório
?a href="//imagem.sian.an.gov.br/acervo/derivadas/br_dfanbsb_n8/0/psn/aic/0102/br_dfanbsb_n8_0_psn_aic_0102_d0001de0001.pdf" target="_blank" rel="noopener">CBMM ?30 anos no desenvolvimento tecnológico do nióbio? Relatório enviado pela empresa ao Conselho de Segurança Nacional em 23 de setembro de 1986. Arquivo Nacional. Fundo do Conselho de Segurança Nacional, BR DFANBSB N8.0.PSN, AIC.102, p. 187-96.

The post Veteranos do Projeto Nióbio tentam resgatá-lo do esquecimento appeared first on Giz Brasil.

]]>
?????????,??????,????????? //emiaow553.com/supostos-supercondutores-a-temperatura-ambiente-nao-convencem-criticos/ Sun, 08 Oct 2023 16:33:45 +0000 /?p=523779 Experimentos independentes não confirmam comportamento de materiais que, mesmo fora de condições controladas, seriam capazes de transmitir eletricidade sem perda de energia

The post Supostos supercondutores à temperatura ambiente não convencem críticos appeared first on Giz Brasil.

]]>
Texto: Marcos Pivetta/Revista Pesquisa Fapesp

A temperatura não para de subir dentro e fora dos laboratórios que procuram por materiais supercondutores, capazes de conduzir eletricidade sem nenhuma perda de energia na forma de calor, ou seja, com resistência zero. Em 8 de março deste ano, uma equipe coordenada pelo físico Ranga Dias, da Universidade de Rochester, nos Estados Unidos, publicou um artigo científico na revista Nature em que relatava a síntese do que seria o primeiro supercondutor à temperatura ambiente. De acordo com o trabalho, o composto de fórmula LuNH ?material baseado no lutécio, um metal de cor branca-prateada, misturado com nitrogênio e hidrogênio ?apresentaria resistência zero a 294 Kelvin (K), 21 graus Celsius (°C).

O suposto feito, longe de ser comprovado por ora, teria um potencial revolucionário. Todos os supercondutores hoje disponíveis ?instalados em aparelhos de ressonância magnética, no interior de grandes aceleradores de partículas e em alguns trens magnéticos de alta velocidade ?funcionam apenas quando resfriados, de forma custosa, a temperaturas extremamente baixas, próximas do zero absoluto (0 K). Esses valores equivalem a centenas de graus Celsius negativos.

O parâmetro mais importante de um supercondutor é denominado temperatura crítica (Tc), valor geralmente dado na escala Kelvin abaixo do qual um material apresenta resistência zero à passagem de corrente elétrica. Ou seja, vira um supercondutor elétrico. Outra característica definidora é a capacidade de repelir campos magnéticos, propriedade que pode ser usada para produzir o fenômeno da levitação.

É verdade que, segundo o estudo da Nature, o LuNH precisava ser submetido a uma pressão 10 mil vezes superior à da atmosfera terrestre para atuar como um condutor perfeito de eletricidade. Ainda assim, desde a descoberta da supercondutividade em 1911 no elemento mercúrio a -269 ºC (4,15 K), ninguém tinha pleiteado a existência de um supercondutor com uma Tc tão alta. Ninguém a não ser o próprio Dias em um artigo anterior, publicado em outubro de 2020, também na Nature. No trabalho, ao lado de colegas da Universidade de Nevada e de seu time em Rochester, o físico alegava ter produzido um composto feito de carbono, hidrogênio e enxofre que se tornava supercondutor a 15 ºC se submetido a uma pressão 2,6 milhões de vezes maior do que a da Terra.

Não há perda de energia na forma de calor quando a corrente elétrica passa por um supercondutor

Passados seis meses de sua divulgação, o composto LuNH exibe fissuras crescentes em sua alegada reputação de supercondutor à temperatura ambiente. “Tenho um ceticismo comedido com esse material. Nesse campo da ciência, o primeiro resultado é provisório enquanto não for confirmado por outros laboratórios? comenta o físico Wilson Ortiz, coordenador do grupo de supercondutividade e magnetismo da Universidade Federal de São Carlos (UFSCar). Nenhum grupo de pesquisa independente conseguiu reproduzir, em laboratório ou computacionalmente, o experimento que teria indicado sua supercondutividade a 21 °C.

A situação do estudo anterior, de três anos atrás, com o composto feito de carbono, hidrogênio e enxofre, é ainda mais desconfortável. Em setembro do ano passado, a Nature retratou, à revelia de seus autores, o artigo de 2020 publicado em suas páginas pela equipe de Dias. “Depois da publicação [do artigo], questões foram levantadas sobre a maneira com que os dados desse paper foram processados e analisados? escreveram os editores do periódico em um texto que explicava a decisão.

Para piorar ainda mais a situação, a prestigiada revista Physical Review Letters (PRL) retratou, em agosto de 2023, outro artigo que o grupo de Dias e os colegas de Nevada haviam publicado em uma de suas edições de 2021. O paper anulado não tratava especificamente de supercondutividade, mas das propriedades elétricas do dissulfeto de manganês (MnS2), que podia se comportar ora como isolante, ora como metal.

Quatro equipes independentes de especialistas examinaram o artigo da PRL e expressaram “sérias dúvidas?sobre os dados apresentados em uma figura sobre as curvas de resistência elétrica do material, de acordo com o comunicado emitido pelo periódico quando divulgou a retratação. Todos os 10 autores do paper concordaram com o veredicto da revista, com exceção de Dias, que tem evitado dar entrevistas recentemente sobre seus trabalhos.

O físico Ranga Dias, da Universidade de Rochester, que afirma ter produzido supercondutores à temperatura ambiente

O físico Ranga Dias, da Universidade de Rochester, que afirma ter produzido supercondutores à temperatura ambiente. Imagem: J. Adam Fenster? Universidade de Rochester

Nascido no Sri Lanka, o físico da Universidade de Rochester concluiu o doutorado em 2013 na Universidade Estadual de Washington e fez pós-doutorado na Universidade Harvard antes de ser contratado como professor em 2017 pela Universidade de Rochester. Ao lado do físico Ashkan Salamat, da Universidade de Nevada, um colaborador de muitos de seus estudos, Dias fundou em 2020 a empresa Unearthly Materials, para vender (supostos) supercondutores que funcionariam à temperatura ambiente e a pressões modestas.

“O artigo mais recente da equipe de Ranga Dias não explica direito a composição desse material do sistema LuNH nem o método usado para obtê-lo? comenta o engenheiro de materiais Luiz Eleno, da Escola de Engenharia de Lorena da Universidade de São Paulo (EEL-USP). Em parceria com pesquisadores das universidades Sapienza de Roma (Itália), de Cambridge (Reino Unido) e Tecnológica de Graz (Áustria), Eleno e o engenheiro físico Pedro Ferreira, que faz doutorado sob sua orientação, publicaram um estudo na Nature Communications em 4 de setembro em que descartam qualquer possibilidade de uma combinação dos elementos lutécio, hidrogênio e nitrogênio gerar um material supercondutor com características similares às defendidas pelo grupo de Rochester.

O trabalho com participação dos brasileiros não foi de caráter experimental. Eles não foram ao laboratório e tentaram reproduzir o mesmo material e os resultados apresentados por Dias, como fizeram, também sem sucesso, alguns grupos internacionais. Escolheram uma abordagem de modelagem computacional em que desenham virtualmente um material e tentam prever suas propriedades eletrônicas, magnéticas e outros parâmetros com o emprego do conhecimento da física de estado sólido e de várias técnicas modernas de informática, como inteligência artificial e aprendizagem de máquina.

Dessa forma, simulam diferentes condições de temperatura e de pressão e criam, em um cluster de computadores, versões distintas de cristais a partir da combinação dos elementos químicos usados pela equipe de Rochester. O objetivo final do experimento computacional era averiguar se algum composto feito com essa receita poderia resultar em um material candidato a ser um supercondutor à temperatura ambiente.

No total, foram simulados no computador 200 mil compostos com estruturas atômicas diferentes. Dos pouco mais de 150 materiais que pareciam ser estáveis quando submetidos a uma certa corrente elétrica, o grupo identificou 52 que exibiam algum potencial para se comportar como supercondutores ?nenhum deles a temperaturas próximas às temperaturas em que vivem os seres humanos. “O composto que se saiu melhor poderia, segundo as simulações, transmitir uma corrente sem perda de energia apenas a 40 K, ou -233,15 ºC? comenta Eleno.

Alexandre Affonso / Revista Pesquisa FAPESP

Foi um trabalho de ocasião, que começou a ser concebido assim que o artigo do grupo de Rochester ganhou as páginas da Nature em março passado. Nessa época, Ferreira passava uma temporada na Universidade Tecnológica de Graz, na equipe de Christoph Heil, e pesquisava outro tema na área de supercondutividade. Mas, diante do enorme interesse e polêmica despertados pelo estudo da equipe de Dias, decidiram concentrar esforços em um estudo com o composto LuNH.

“Se ele fosse realmente um supercondutor à temperatura ambiente, como eles diziam, essa poderia ser a descoberta científica do século? comenta Ferreira, que é o primeiro autor do estudo na Nature Communications e faz doutorado com bolsa da FAPESP. “Por isso, fizemos nosso estudo com rapidez. Sabíamos que os maiores grupos dedicados à procura de novos materiais, em especial da área de supercondutores, fariam o mesmo.?/p>

Apesar de batida e talvez pretensiosa, a metáfora de que a busca por supercondutores de altas temperaturas é o Santo Graal da física ?algo muito procurado, mas que ninguém encontrou ?continua sendo comumente empregada. A alegoria faz sentido, ainda que não faltem outros objetivos com potencial revolucionário em vários campos científicos, inclusive na própria física. A descoberta de um material que atue como supercondutor à temperatura (e pressão) ambiente poderia impulsionar novas aplicações em várias áreas, como computação quântica, transportes e na própria transmissão de eletricidade, além de gerar uma economia de energia sem paralelo.

“Hoje se gasta muito com sistemas de refrigeração que usam hélio líquido para manter os supercondutores abaixo de sua Tc? comenta o físico Pascoal Pagliuso, da Universidade Estadual de Campinas (Unicamp), especialista em física da matéria condensada. Em tese, uma corrente elétrica circularia infinitamente em um material supercondutor ?desde que mantidas as condições de temperatura e pressão que levam ao surgimento da resistência zero à passagem de eletricidade. Em um experimento no Reino Unido, a corrente em um anel supercondutor foi mantida por dois anos e meio e só se interrompeu em razão de uma greve de caminhoneiros, que atrasou a entrega do hélio líquido necessário para manter o material abaixo de sua temperatura crítica.

Além de problemas práticos, há questões teóricas mal resolvidas na supercondutividade de altas temperaturas. A chamada teoria BCS fornece as bases para a compreensão do surgimento do fenômeno da resistência elétrica zero em supercondutores clássicos, que funcionam geralmente em condições extremamente frias. Ela mostra como átomos e elétrons vibram de forma coordenada na malha estrutural de cristais supercondutores sem acarretar perda de energia na passagem da eletricidade. “Mas, em muitos supercondutores com temperatura crítica mais elevada, não conhecemos o mecanismo microscópico que levaria à supercondutividade e a BCS não dá conta de explicar esses casos? comenta Ortiz.

Os aparelhos de ressonância magnética funcionam com o emprego de supercondutores mantidos a baixíssimas temperaturas

Os aparelhos de ressonância magnética funcionam com o emprego de supercondutores mantidos a baixíssimas temperaturas. Imagem: Léo Ramos Chaves? Revista Pesquisa FAPESP

A passagem ou o bloqueio da corrente elétrica é um fenômeno quântico e a explicação que segue é uma simplificação do processo. Os elétrons, como seu nome indica, são as partículas responsáveis pela condução da eletricidade no interior dos materiais. Em isolantes, eles estão tão juntos do núcleo dos átomos que não conseguem se deslocar e fazer a corrente fluir. Em materiais que conduzem eletricidade, mas não são supercondutores, os elétrons se movimentam e conseguem transmitir apenas uma parte da corrente recebida.

No entanto, outros, em menor número, chocam-se com os núcleos dos átomos, que têm carga positiva e atraem os elétrons, de carga negativa. Essas colisões provocam perda de energia, na forma de calor. “?por isso que os fios de um metal condutor, como os de cobre, esquentam? comenta o físico Mauro Doria, da Universidade Federal do Rio de Janeiro (UFRJ), especialista em supercondutividade, magnetismo e fluidos. “Sua resistência à passagem da corrente não é zero.?Pelo menos 15% da energia é dissipada como calor em materiais que transmitem correntes elétricas, mas não de forma perfeita como os supercondutores.

Os trabalhos de Ranga Dias não são os primeiros a pleitear a descoberta da supercondutividade à temperatura ambiente. Vários grupos fizeram o mesmo no passado, todos sem sucesso. Nos últimos meses, em paralelo às discussões e polêmicas sobre os estudos do grupo de Rochester, pesquisadores sul-coreanos do Centro de Pesquisa em Energia Quântica, de Seul, publicaram em julho passado, na forma de preprint no repositório arXiv, um artigo com uma reivindicação ainda mais espetacular. Diziam que tinham criado um material, um composto de cobre, chumbo, fósforo e oxigênio denominado LK-99, com resistência zero à passagem de corrente elétrica à temperatura e pressão ambiente.

Apesar de ter causado muito barulho, o trabalho, que não foi aceito para publicação em nenhuma revista, carecia de rigor científico na opinião de muitos especialistas. “Eles cometeram erros de interpretação tanto no texto como nas figuras que indicariam a existência de supercondutividade? diz Pagliuso. “Foram precipitados e amadores.?Quando um composto atinge a temperatura em que se torna um supercondutor, sua resistência à passagem de corrente elétrica cai abruptamente e chega a zero. “O trabalho dos coreanos registra uma grande queda repentina na resistência elétrica, mas ela não parecia se tornar nula nos dados mostrados.?/p>

Não à toa, as dificuldades de encontrar materiais que deixem a corrente elétrica fluir totalmente livre, sem nenhum grau de resistência, em condições similares à do ambiente natural, levaram o físico argentino Elbio Dagotto, da Universidade do Tennessee, a afirmar, certa vez, que a supercondutividade de altas temperaturas era “o Vietnã da física teórica?

BCS, uma teoria para supercondutividade
Interação coordenada de elétrons e átomos permite passagem de corrente sem perda de energia

Alexandre Affonso/ Revista Pesquisa FAPESP

Apresentada em 1957 pelos físicos norte-americanos John Bardeen (1908-1991), Leon Cooper e John Schrieffer (1931-2019), a teoria BCS (alusão ao sobrenome de seus propositores) é a melhor explicação científica disponível até hoje sobre o mecanismo microscópico que estaria por trás da supercondutividade. Embora não seja atualmente considerada capaz de dar conta dos mecanismos que possibilitam a transmissão de eletricidade com resistência zero em materiais que se comportam como supercondutores a temperaturas mais altas, essa formulação de meados do século passado introduz um conceito fundamental para a compreensão geral desse fenômeno quântico: a formação dos chamados pares de Cooper.

Trata-se da contraintuitiva ligação de grupos de dois elétrons que, em certos materiais, em determinadas condições favoráveis, como a temperaturas perto do zero absoluto ou a grandes pressões, permite a passagem de corrente elétrica sem perda de energia. Por terem carga negativa, os elétrons não deveriam se atrair, mas se repelir. Entretanto, quando um material apresenta supercondutividade, os pares de elétrons que fluem no interior da estrutura de um cristal se aproximam bastante (sem, no entanto, juntar-se ou colidir) e passam a interagir conjuntamente, como uma quase partícula, com os átomos do material, que têm carga positiva.

Os pares de Cooper se movem ordenadamente em um jogo de aproximação e distanciamento dos átomos ?uma vibração ou excitação coletiva denominada fônon ?e percorrem a malha estrutural do cristal sem provocar colisões. Grosso modo, são os choques dos elétrons com os núcleos dos átomos que fazem com que os materiais condutores ou semicondutores de eletricidade, como fios de cobre ou chips de silício, desperdicem parte de sua energia na forma de calor. “A teoria BCS é completa para descrever a supercondutividade, mas não explica realmente como os pares de Cooper se formam nos supercondutores de alta temperatura? comenta o físico Pascoal Pagliuso, da Unicamp. Hoje, há praticamente um consenso de que, além da BCS, que rendeu o Nobel de Física de 1972 a seu trio de formuladores, novas teorias precisam ser desenvolvidas para tentar explicar o surgimento da supercondutividade em temperaturas mais elevadas.

Projeto
Estudo ab initio de sistemas supercondutores e topológicos (nº 20/08258-0); Modalidade Bolsa de Doutorado; Pesquisador responsável Luiz Tadeu Fernandes Eleno (USP); Bolsista Pedro Pires Ferreira; Investimento R$ 384.888,43.

Artigos científicos
DASENBROCK-GAMMON, N. et alEvidence of near-ambient superconductivity in a N-doped lutetium hydride. Nature. 8 mar. 2023.
FERREIRA, P.P., et al. Search for ambient superconductivity in the Lu-N-H systemNature Communications. 4 set. 2023.

The post Supostos supercondutores à temperatura ambiente não convencem críticos appeared first on Giz Brasil.

]]>
??? ?? ??? ????? ??? ????? ?? //emiaow553.com/absorcao-da-luz-por-moleculas-tem-aplicacoes-em-microscopia-medicina-e-armazenamento-de-dados/ Mon, 02 Oct 2023 12:51:08 +0000 /?p=522492 Método alternativo proposto por físico brasileiro reduz de vários dias para algumas horas o tempo de simulação computacional do espectro de absorção

The post Absorção da luz por moléculas tem aplicações em microscopia, medicina e armazenamento de dados appeared first on Giz Brasil.

]]>
Texto: José Tadeu Arantes | Agência FAPESP

Conhecer a energia da luz absorvida por uma molécula possibilita entender sua estrutura, seus estados quânticos, sua interação com outras moléculas e suas possíveis aplicações tecnológicas. Moléculas com alta probabilidade de absorver simultaneamente dois fótons de luz de baixa energia apresentam uma ampla gama de aplicações: em sondas moleculares em microscopia de alta resolução, como substrato para armazenamento de dados em estruturas tridimensionais densas ou vetores em tratamentos medicinais.

O estudo do fenômeno por meios experimentais diretos apresenta, porém, dificuldades. Por isso, simulações computacionais têm sido feitas em complemento à caracterização espectroscópica. Além disso, as simulações propiciam uma visão microscópica de difícil acesso em experimentos. O problema é que simulações envolvendo moléculas relativamente grandes demandam vários dias de processamento em supercomputadores ou meses de processamento em computadores convencionais.

Para contornar essa dificuldade, um método alternativo de cálculo foi proposto pelo físico Tárcius Nascimento Ramos e colaboradores em artigo publicado em The Journal of Chemical Physics.

Doutorado em 2020 no Instituto de Física da Universidade de São Paulo (IF-USP) com bolsa da FAPESP, Ramos é atualmente pesquisador do Fonds de la Recherche Scientifique (F.R.S.-FNRS) na Université de Namur, na Bélgica.

“Avaliamos a performance de um método semiempírico que foi muito utilizado nas décadas passadas, mas, devido ao seu caráter aproximativo, passou a ser negligenciado por parte da comunidade científica. Com ele, conseguimos reduzir o tempo de cálculo para quatro horas em computador convencional. O baixo custo computacional permitiu considerar uma ampla amostragem estatística para simulações de moléculas em soluções, algo inviável com o método atualmente hegemônico? diz Ramos à Agência FAPESP.

O método atualmente hegemônico a que o pesquisador se refere é a Teoria do Funcional da Densidade (DFT, da expressão em inglês Density Functional Theory). Trata-se de uma ferramenta teórica amplamente utilizada em mecânica quântica, que permite descrever as propriedades eletrônicas de sistemas complexos por meio da densidade eletrônica do sistema, sem que seja necessário recorrer às funções de onda individuais de cada elétron.

“O método alternativo que utilizamos foi o INDO-S [sigla em inglês para negligência intermediária de sobreposição diferencial com parametrização espectroscópica]. Ele se baseia na função de onda do sistema molecular, mas a resolve de forma aproximada. Partes dos complexos e custosos cálculos computacionalmente são substituídos por valores tabelados obtidos por ajustes com dados espectroscópicos experimentais. Isso torna o método altamente eficiente para o estudo teórico de grandes compostos moleculares? afirma Ramos.

Para avaliar a praticidade de utilizar um método como esse, é preciso considerar que a molécula estudada, derivada do estilbeno, possui mais de 200 átomos ?de carbono, oxigênio e hidrogênio. Além do número de componentes, que por si só tornaria as simulações convencionais extremamente trabalhosas e caras, essas grandes moléculas apresentam uma complicação adicional. Elas são flexíveis e suas mudanças conformacionais (como torções, por exemplo) modificam suas propriedades eletrônicas.

“No final do estudo, nós preenchemos a lacuna experimental, caracterizando, em nível microscópico, o espectro de absorção de um e dois fótons para essa classe de moléculas. E verificamos que o método semiempírico que testamos, frequentemente negligenciado devido ao seu caráter aproximativo, é a forma mais recomendada para prever os espectros de absorção de um fóton e dois fótons por grandes moléculas em solução. Isso abre espaço para engenheiros moleculares desenvolverem novos compostos com maior eficiência nos seus diversos ramos de aplicações? comenta Ramos.

Aqui é necessário levar em conta as diferenças entre a absorção de um fóton e a absorção de dois fótons. O princípio geral é que as moléculas absorvem fótons apenas quando podem assumir estados excitados que sejam compatíveis com as energias dos fótons. Mas as regras de seleção para absorção de um fóton ou de dois fótons não são as mesmas. Por isso, estados excitados proibidos para a absorção de um fóton podem ser permitidos para a absorção de dois fótons. Essas características diferenciais ?somadas à alta resolução espacial da excitação por dois fótons, resultante de sua natureza óptica não linear ?fazem com que moléculas capazes de absorver dois fótons se prestem a utilizações muito mais refinadas.

“No caso da microscopia, o imageamento apresenta resolução muito maior, possibilitando caracterizar tecidos profundos com menor dano para as estruturas do entorno. No caso do armazenamento de dados, a alta resolução permite que estruturas tridimensionais sejam criadas com grande precisão e detalhes, viabilizando codificar pontos no interior dos materiais com alta densidade de dados por volume? informa o pesquisador.

A modelagem computacional do fenômeno de absorção de dois fótons por moléculas orgânicas em solução foi o principal tema de Ramos durante sua pesquisa de doutorado. O presente artigo é um passo adiante nessa investigação. Além da bolsa de doutorado conferida ao pesquisador, o estudo foi apoiado pela FAPESP por meio de outros dois projetos (14/50983-3 e 15/20032-0). Colaboraram Leandro Franco (Karlstad University, Suécia), Daniel Luiz da Silva (Universidade Federal de São Carlos) e Sylvio Canuto (USP).

O artigo Calculation of the one- and two-photon absorption spectra of water-soluble stilbene derivatives using a multiscale QM/MM approach pode ser lido em: //pubs.aip.org/aip/jcp/article-abstract/159/2/024309/2902110/Calculation-of-the-one-and-two-photon-absorption?redirectedFrom=fulltext.

The post Absorção da luz por moléculas tem aplicações em microscopia, medicina e armazenamento de dados appeared first on Giz Brasil.

]]>
????????????? ??- ??? ??? //emiaow553.com/ia-ajuda-a-distinguir-galaxias-espirais-das-elipticas/ Wed, 20 Sep 2023 11:31:58 +0000 /?p=519788 Algoritmos classificam 160 mil agrupamentos de bilhões de estrelas a partir de imagens obtidas por telescópio robótico brasileiro

The post IA ajuda a distinguir galáxias espirais das elípticas appeared first on Giz Brasil.

]]>
Texto: Marcos Pivetta/Revista Pesquisa Fapesp

Uma equipe internacional liderada por astrofísicos do Centro Brasileiro de Pesquisas Físicas (CBPF) classificou o formato de cerca de 164 mil galáxias visíveis no céu do hemisfério Sul com o emprego de dois algoritmos de inteligência artificial desenvolvidos no país. O primeiro analisou as imagens e identificou objetos que poderiam comprometer a categorização das galáxias de acordo com seus contornos, como a presença de um corpo extremamente luminoso no campo de visão. Atribuiu ainda a cada imagem qual era sua probabilidade de ser útil para determinar a forma de uma galáxia. O segundo algoritmo fez a classificação em si desses enormes agrupamentos de bilhões de estrelas a partir da distribuição e concentração dos menores pontos luminosos (pixels) que compõem as imagens. Foram usados no estudo registros das galáxias obtidos pelo telescópio robótico brasileiro T80S, em funcionamento no Chile desde 2016.

Cerca de 98% das galáxias foram classificadas em duas grandes classes: 69% como espirais e 29% como elípticas. Os outros 2% foram compostos de galáxias cuja categoria não foi possível determinar por diferentes motivos: apresentavam formato irregular, exibiam estruturas híbridas que as situavam como pertencentes às duas grandes categorias ou não se encaixavam em nenhuma classificação conhecida. Os resultados foram apresentados em um estudo aceito para a publicação no periódico científico Monthly Notices of the Royal Astronomical Society. “Nossos testes de validação indicam que o grau de acerto com nosso método que usa técnicas da inteligência artificial para classificar galáxias é de 98,5%? comenta o astrofísico Clécio Roque de Bom, do CBPF. O pesquisador criou os dois algoritmos usados no trabalho e é o autor principal do artigo.

A configuração de uma galáxia contém pistas sobre sua história e seu processo de formação. As mais comuns são as do tipo espiral, como a Via Láctea. Sua parte central, denominada bojo, abriga uma concentração de estrelas, geralmente mais velhas. Do bojo projetam-se fileiras de estrelas novas, fomentadas pela presença de gás frio, que traçam no espaço linhas curvas abertas ?belas estruturas informalmente denominadas braços.

Desprovidas de grandes quantidades de gás, as galáxias elípticas normalmente não formam estrelas novas e se caracterizam por exibir uma estrutura mais simples e monótona. Apresentam uma forma redonda ou ovalada e são formadas majoritariamente por estrelas velhas. “As elípticas estão geralmente na região central dos aglomerados de galáxias, enquanto as espirais ficam mais em sua periferia? comenta Bom.

Inteligência artificial ajuda a distinguir galáxias espirais das elípticas

Exemplos das duas principais classes de galáxias, a espiral NGC 2525 (à dir.) e a elíptica Messier 59. Imagem:
ESA? Hubble & NASA

Do manual ao automático

Há poucas décadas, os astrofísicos faziam a classificação de galáxias e de outros objetos de forma manual. Olhavam uma a uma as imagens à sua disposição e chegavam a um veredito. Com a enorme quantidade de registros de corpos celestes obtidos por diferentes mapeamentos do céu visível, esse processo artesanal foi substituído, ao menos como primeira abordagem, por classificações automatizadas.

Os avanços na informática e mais recentemente nas áreas de inteligência artificial e de aprendizado de máquina permitem, agora, processar e analisar milhões de imagens de forma muito rápida. “Com os algoritmos, o tempo de classificação de uma galáxia é de milésimos de segundo? diz a astrofísica italiana Arianna Cortesi, do Observatório do Valongo da Universidade Federal do Rio de Janeiro (OV-UFRJ), outra autora do estudo. “Dois parâmetros são muito importantes para que isso seja possível: a resolução e a profundeza das imagens.?Em outras palavras, o código do algoritmo só consegue “enxergar?os braços e outras estruturas das galáxias porque trabalha com registros de boa qualidade desses objetos celestes.

O telescópio T80S trabalha majoritariamente para o levantamento Southern Photometric Local Universe Survey (S-Plus). A iniciativa tem como objetivo mapear metade do céu do hemisfério Sul, inclusive algumas regiões fora do campo de visão de outros levantamentos. O T80S tem um espelho de apenas 80 centímetros, mas uma câmera com campo de visão muito amplo, ideal para varrer vastas áreas do céu em pouco tempo.

Outra particularidade do telescópio é contar com um filtro que produz imagens em 12 bandas fotométricas distintas dos corpos celestes observados. “A maioria dos levantamentos conta com imagens de quatro a seis bandas dos objetos mapeados? comenta a astrofísica Claudia Mendes de Oliveira, do Instituto de Astronomia, Geofísica e Ciências Atmosféricas da Universidade de São Paulo (IAG-USP), idealizadora do T80S e coordenadora do S-Plus. “Nossas imagens contêm muita informação e a inteligência artificial é uma ferramenta importante para nos auxiliar nas análises.?/p>

Até agora, o levantamento do S-Plus catalogou e divulgou imagens de 21 milhões de objetos celestes. Cerca de 200 pesquisadores, dos quais 60% brasileiros, participam do projeto. O T80S foi construído e opera com financiamento majoritário da FAPESP. O Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), a Financiadora de Estudos e Projetos (Finep) e a Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro (Faperj) também contribuíram para a entrada em operação do telescópio.

Projeto
Ciência com o telescópio robótico brasileiro (nº 19/26492-3); Modalidade Projeto Temático; Pesquisadora responsável Claudia Mendes de Oliveira (USP); Investimento R$ 3.899.778,96.

Artigo científico
DE BOM, C. R. et alAn extended catalogue of galaxy morphology using deep learning in southern photometric local universe survey data release 3ArXiv. 16 jun. 2023.

The post IA ajuda a distinguir galáxias espirais das elípticas appeared first on Giz Brasil.

]]>
???????????,??????,????????? //emiaow553.com/lattes-lutz-chagas-vital-brazil-e-oswaldo-cruz-os-5-pais-da-ciencia-do-brasil/ Sun, 13 Aug 2023 13:34:58 +0000 /?p=511372 Contamos a história destes médicos, biomédicos, físicos e sanitaristas que ficaram conhecidos internacionalmente por seu trabalho no Brasil

The post Lattes, Lutz, Chagas, Vital Brazil e Oswaldo Cruz: os 5 pais da ciência do Brasil appeared first on Giz Brasil.

]]>
Para celebrar o dia dos pais, fizemos uma lista de brasileiros que são considerados os pais da ciência no Brasil — da física à epidemiologia.

A lista, em ordem cronológica de nascimento, está repleta de nomes que você certamente conhece ?mas talvez não saiba da história por trás deles. Confira:

Adolfo Lutz

Adolfo Lutz (1855-1940) foi um pioneiro na área da epidemiologia, e é considerado o pai da medicina tropical e da zoologia médica no Brasil.

Ele nasceu no Rio de Janeiro, mas foi para a capital suíça em 1857, quando seus pais decidiram voltar à sua cidade natal. Lutz estudou medicina na Faculdade de Berna, estudou com Louis Pasteur e retornou ao Brasil em 1881. Aqui, Lutz trabalhou com outros jovens cientistas como Emílio Ribas e Vital Brazil, ajudando na criação do soro antiofídico e do Instituto Butantan.

Ele trabalhou como médico clínico em Limeira, no interior paulista, onde atendia pessoas que sofriam com doenças como febre amarela, febre tifoide, cólera, malária e tuberculose. Após voltar à Europa para se especializar em doenças infecciosas, ele assumiu a direção do Instituto Bacteriológico de São Paulo, em 1893 ?que hoje leva seu nome. 

No instituto, Lutz desenvolveu pesquisas nas áreas da entomologia médica (estudo dos insetos), helmintologia (estudo dos vermes) e zoologia, aplicadas à medicina tropical. Em 1901, conseguiu confirmar que a febre amarela se transmitia a partir do vetor Aedes aegypti. Ele também foi uma das principais figuras responsáveis por frear a peste bubônica no Brasil.

Vital Brazil

Vital Brazil Mineiro da Campanha (1865-1950) foi um dos maiores médicos e sanitaristas do Brasil, desenvolvendo pesquisas pioneiras para a produção do soro antiofídico, para tratar picadas de serpentes peçonhentas.

Ele nasceu em Campanha (MG) e estudou na Faculdade de Medicina do Rio de Janeiro.  Em 1897, ele ingressou no Instituto Bacteriológico do Estado de São Paulo, dirigido por Adolfo Lutz, e trabalhou junto com Oswaldo Cruz e Emílio Ribas desenvolvendo pesquisas para combater a peste bubônica, o tifo, a varíola e a febre amarela.

Vital Brazil liderou missões de combate a diversas epidemias que eclodiram no país e se tornou mundialmente conhecido pela criação do soro antiofídico. Ele também está por trás da criação de duas instituições que se tornaram referência na formação de pesquisadores, na produção de medicamentos e na divulgação científica no país: o Instituto Butantan, em 1901, e o Instituto Vital Brazil, em 1919.

Oswaldo Cruz

Oswaldo Gonçalves Cruz (1872-1917) foi um dos maiores médicos e epidemiologistas brasileiros, sendo também um bacteriologista pioneiro em sua época e um oficial de saúde pública de destaque internacional.

Ele nasceu em São Luís do Paraitinga (SP) e estudou na Faculdade de Medicina do Rio de Janeiro. Em 1897, viajou para Paris, onde estudou microbiologia, soroterapia e imunologia por dois anos no Instituto Pasteur. De volta ao Rio de Janeiro, assumiu a direção do Instituto Soroterápico Federal e, mais tarde, a Diretoria-Geral de Saúde Pública.

Ele empreendeu uma campanha sanitária de combate às principais doenças do Rio de Janeiro: peste bubônica, febre amarela e varíola. Ele adotou medidas sanitárias baseadas em uma nova teoria da época: de que o transmissor da febre amarela era um mosquito. Em 1904, tentou promover a vacinação em massa da população contra a varíola ?o que gerou a revolta da vacina.

Mais tarde, Oswaldo Cruz lançou iniciativas que erradicaram a febre amarela no Pará, por exemplo, e realizou a campanha de saneamento da Amazônia. Ele reestruturou todos os órgãos de saúde e higiene do país, e ganhou reconhecimento internacional pelo trabalho de saneamento do Rio de Janeiro. Por tudo isso, o Instituto Soroterápico Federal mudou de nome e se transformou no Instituto Oswaldo Cruz (IOC).

Carlos Chagas

Carlos Ribeiro Justiniano das Chagas (1878-1934) é outro dos principais biólogos, médicos sanitaristas e infectologistas do Brasil, que atuou como médico clínico e pesquisador.

Chagas se destaca na história da medicina por ter conseguido descrever completamente uma doença infecciosa: o patógeno, o vetor, os hospedeiros, as manifestações clínicas e a epidemiologia. A tal doença é, claro, a doença de Chagas, causada pelo protozoário Trypanosoma cruzi e transmitida pelo barbeiro.

Ele nasceu na cidade de Oliveira (MG) e estudou na Faculdade de Medicina no Rio de Janeiro. Em 1905, Chagas foi contratado por Oswaldo Cruz para controlar uma epidemia de malária no interior paulista ?doença que também ajudou a combater em Minas Gerais. No Rio de Janeiro, trabalhou na contenção de um surto de gripe espanhola, em 1918.

Ele participou de outras campanhas médicas e sanitaristas pelo Brasil, se dedicou à investigação das principais epidemias da zona rural do país e inaugurou, em 1918, o Hospital Oswaldo Cruz após se tornar diretor do instituto. Também ficou reconhecido internacionalmente e ficou responsável pela Diretoria Geral de Saúde Pública.

César Lattes

O CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) deu o nome de Plataforma Lattes ao banco de dados que reúne o currículo de todos os pesquisadores do nosso país ?e este fato bem representa a importância do físico César Mansueto Giulio Lattes.

Filho de imigrantes italianos e judeus, César Lattes (1924-2005) nasceu em Curitiba (PR) e se tornou um dos físicos mais importantes do Brasil. Ele estudou física e matemática na Universidade de São Paulo (USP) e, no início de 1946, passou a integrar a equipe do laboratório de Cecil Powell, na Universidade de Bristol, na Inglaterra.

Nessa época, Lattes ajudou a projetar chapas fotográficas para capturar partículas subatômicas e as levou para os Pirineus franceses. Assim, ele conseguiu registrar a passagem de um novo tipo de partícula atômica, o píon, à medida que os raios cósmicos atravessavam as chapas. Depois, levou chapas semelhantes para o monte Chacaltaya, na Bolívia, onde conseguiu registrar mais centenas de partículas subatômicas.

Cecil Powell, que era chefe do laboratório em que Lattes trabalhava, foi agraciado com um prêmio Nobel de Física por conta do desenvolvimento do método. O físico brasileiro se tornou um dos grandes nomes da física atômica no pós-guerra e foi decisivo para a criação do Centro Brasileiro de Pesquisas Físicas (CBPF), do qual foi diretor científico, e do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq).

Assine a newsletter do Giz Brasil

The post Lattes, Lutz, Chagas, Vital Brazil e Oswaldo Cruz: os 5 pais da ciência do Brasil appeared first on Giz Brasil.

]]>