Para Mércia Cristina, a ausência do celular trará um aproveitamento melhor dos conteúdos educacionais
por
Laila Santos
Tamara Ferreira
|
09/06/2025 - 12h

Em 13 de janeiro deste ano, foi sancionada a lei nº 15.100/2025 pelo Presidente da República, Luiz Inácio Lula da Silva (PT), que limita o uso de celulares em escolas das redes pública e privada. O objetivo é diminuir os impactos negativos deste aparelho, como o vício em tecnologia, a falta de concentração e os prejuízos à saúde mental dos jovens. Não está proibido portar os dispositivos eletrônicos nas classes, mas sua utilização é apenas para emergências, necessidades de saúde e atividades pedagógicas que necessitam deles. Tudo fica sempre sob supervisão do professor. Essa 'brecha' tem levado muitos alunos a tentar burlar as regras, afirma Mércia Cristina de Freitas Andrade, inspetora de alunos em uma escola da rede pública, em entrevista à AGEMT. 

Com foco em diminuir o cyberbullying, que causa dificuldades nas relações interpessoais e no desempenho escolar, além dos problemas de sono e das questões psicológicas, as instituições de ensino tiveram que definir as estratégias de implementação da lei, inclusive em recreios e intervalos entre as aulas.   

Estudante com um celular em sala de aula
Estudante com um celular em sala de aula. Foto/Agência de Notícias Yonhap

Com a dependência em inteligências artificiais (IAs) atualmente, a funcionária do Educandário comentou se notou alguma diferença na aprendizagem dos alunos com a utilização desenfreada da internet e o acesso à inteligência artificial: "O uso de celulares e a utilização da IA, de certa forma, fez com que os alunos fizessem o uso demasiado de respostas e pesquisas prontas. Dessa forma, a aprendizagem e o aprimoramento da bagagem cultural foram seriamente comprometidos", ressalta. 

São Paulo foi o primeiro estado a adotar a medida, antes mesmo da criação da lei federal. Os regulamentos mais detalhados da implementação da legislação ficaram ao cargo do CNE (Conselho Nacional de Educação), órgão consultivo do Ministério da Educação (MEC), que decidiu dar autonomia aos colégios na maneira de armazenar e lidar com os aparelhos. Para Mércia, a proibição foi uma medida tardia, mas necessária e, com isso, os estudantes poderão fazer melhor uso do tempo e se concentrar melhor nos estudos. Ela cita: “Notei uma ligeira melhora nas relações humanas. Uma atenção mais direcionada às disciplinas, mas ainda uma resistência à proibição…" 

A entrevistada: Mércia Cristina
A entrevistada: Mércia Cristina de Freitas Andrade. Foto/Arquivo Pessoal

Essa atitude reflete um relacionamento não saudável com um dispositivo que era, praticamente, parte do material escolar e que está cada vez mais presente na vida social. Quando foi proibido, causou uma onda de irritação nos jovens, relata a inspetora.   

A partir de 2018, a Organização Mundial da Saúde (OMS) começou a reconhecer a dependência do celular e em outros meios digitais como um transtorno chamado nomofobia. Um estudo da Universidade Federal do Espírito Santo (Ufes) diz que cerca de 25% dos adolescentes brasileiros são viciados na internet. Além disso, a Opinion Box traz os dados de que 95% das crianças do país, entre 10 e 12 anos, têm acesso a pelo menos um smartphone.  Com essa medida, espera-se que a escola volte a ser um ambiente de interação, que os estudantes voltem a ter uma aprendizagem mais fluida e que desenvolvam uma relação mais equilibrada com a tecnologia. 

Apontada como uma ferramenta no combate às mudanças climáticas, a nuclearização envolve questões colaterais complexas
por
Vítor Nhoatto
|
30/05/2025 - 12h

O setor de energia respondeu em 2024 por 68% de toda a emissão de CO2 no mundo, segundo relatório da United Nations Environment Programme (UNEP). O gás é o principal causador do aquecimento global e precisa diminuir drasticamente nos próximos anos, apontando para a necessidade da chamada transição energética e descarbonização. Mudar a forma como se produz energia é um desafio, e a nuclearização ressurge como uma possível resposta.

A produção de energia a partir de material nuclear é antiga, e de forma simplificada funciona em algumas etapas. O combustível radioativo (urânio) tem seus átomos divididos no processo de fissão, liberando uma grande quantidade de energia que aquece a água em torno do reator e o vapor gerado acaba movimentando turbinas na usina que geram a energia. 

O que chama a atenção para a modalidade é a produção de grandes quantidades de energia com pouco material e baixa pegada de carbono em comparação aos combustíveis fósseis. De acordo com dados de 2020 da German Environment Agency levantados pela organização holandesa fundada em 1978, World Information Service on Energy (WISE), para cada Kwh gerado por usinas nucleares, cerca de 117 gramas de CO2 são emitidos. No caso do carvão e do gás natural as médias giram em torno de 950 e 440 gramas respectivamente. 

Cláudio Geraldo Schön, doutor em Ciências Naturais pela Universität de Dortmund, mestre em Engenharia Metalúrgica pela Universidade de São Paulo (USP) e professor titular na instituição destaca o potencial e a evolução nuclear com o passar dos anos. "Expandi-la poderia substituir as usinas termelétricas, diminuindo a geração de gases de efeito estufa [...] “o processo é continuamente atualizado, e resulta em avanços mesmo sendo uma tecnologia consolidada”.

Foi na extinta União Soviética que a primeira usina nuclear para uso doméstico começou a funcionar para contextualização, a Obninsk em 1954. Em seguida vieram outras, como a de Calder Hall no Reino Unido em 1956 e Shippingport nos Estados Unidos da América (EUA) em 1957. No Brasil, a usina Angra I foi a pioneira, com operações iniciadas em 1985.

Cinza e não verde

No entanto, o cinzento urânio traz um efeito não tão expressivo. Segundo a Agência Internacional de Energia (AIE), se a capacidade de produção nuclear triplicasse, a redução na emissão de CO2 do setor de energia seria cerca de apenas 6% devido principalmente à grande quantidade de carbono liberada na construção de reatores e usinas, que exigem grandes quantidades de recursos e décadas até começarem a funcionar, e para a mineração do urânio também. 

Além disso, a pegada de carbono das principais fontes renováveis de produção de energia são bem mais baixas que a nuclear. Ainda de acordo com o levantamento de 2020 da German Environment Agency, no caso da solar, cada Kwh emite algo em torno de 30 gramas de CO2, para a eólica a cifra é inferior a 10 e para a hidrelétrica de apenas 4 aproximadamente. 

Para o especialista sênior em energia nuclear e integrante da WISE International, Jan Haverkamp, a energia nuclear não é efetiva e nem tem a emergência climática como foco. “O uso do argumento climático é uma cobertura para outros interesses [...] os países com uso tradicional de energia nuclear não a desenvolveram devido às alterações climáticas, o fator inicial foi militar como EUA, China, Rússia e Brasil. Já para outros países era um sinal de importância, como no caso da Romênia, Bulgária e Coreia do Sul. Ou ainda visando a redução da dependência do petróleo como na Alemanha e Reino Unido, ou ainda uma tentativa fracassada de desenvolver uma fonte barata de energia como na Suécia e Canadá”.

1
Última usina nuclear na Alemanha começou a ser demolida em 2023, mas novo governo de extrema-direita avalia reativar a base; “resumindo, para alguns é geopolítica” comenta Jan Haverkamp - Foto: Thomas Frey / DPA / Picture Alliance

Atualmente existem 437 reatores nucleares em funcionamento no mundo, que representam 14% de toda a energia gerada no mundo, de acordo com a World Nuclear Association (WNA). Os EUA ocupam a primeira posição do ranking com 96 unidades, com França, China e Rússia em seguida com 56, 55 e 37 cada, respectivamente. O país asiático tem planos inclusive de se tornar uma potência nuclear, e até 2035 ter o dobro da capacidade atual dos EUA. 

No caso do Brasil, a geração nuclear responde por apenas 2% da matriz energética, produzidos nas usinas Angra I e Angra II. Ambas fazem parte da Central Nuclear Almirante Álvaro Alberto, ao lado da Angra III, ainda em obras, e o complexo começou a ser construído durante a ditadura militar no país.  

Aquilino Senra Martinez, doutor em Ciências da Engenharia Nuclear pela Universidade Federal do Rio de Janeiro (UFRJ) e ex-membro do Conselho Nacional de Ciência e Tecnologia da Presidência da República explica as nuances da modalidade: “O seu uso para geração de eletricidade depende do contexto de cada país. Em lugares com alta demanda e poucos recursos renováveis, a sua expansão pode ser estratégica. No cenário das mudanças climáticas, ela não pode ser descartada, mas também não deve ser tratada como solução única".

Com dimensões continentais e clima tropical, o Brasil se destaca no cenário mundial justamente pelo seu potencial de produção energética renovável, e hoje é referência no quesito. O Balanço Energético Nacional (BEN) de 2024, feito pela Empresa de Pesquisa Energética (EPE) em parceria com Ministério de Minas e Energia (MME), constatou que foi de 49% o índice de energia proveniente de fontes renováveis. 

Mesmo assim, no fim do ano passado a usina Angra I teve seu licenciamento para operação renovado por mais 20 anos pela Comissão Nacional de Energia Nuclear (CNEN), órgão do Governo Federal, e demandará investimento de R$3,2 bilhões nos próximos 3 anos. A continuação das obras de Angra III seguem em análise, mesmo com a administradora das usinas, a empresa de capital misto Eletronuclear, tendo uma dívida de R$6,3 bilhões com a Caixa e o Banco Nacional de Desenvolvimento (BNDES). 

As operações no terceiro reator foram paralisadas em 2015 e voltaram somente em 2022 após reajuste do orçamento, com 65% das obras concluídas. Isso demandou um investimento até então de R$7,8 bilhões, e apesar da conclusão não ter sido incluída no novo Programa de Aceleração do Crescimento (PAC) anunciado em 2023, estima-se cerca de R$20 bilhões necessários para tal.

Para Rárisson Sampaio, porta-voz da Frente de Transição Energética do Greenpeace Brasil, essas cifras revelam como a nuclearização desvia dinheiro necessário das fontes renováveis e ameaça um desenvolvimento sustentável e acessível. “O investimento em usinas nucleares não se conecta com a realidade do país, que poderia direcionar tais recursos para outras áreas, fortalecendo políticas como o Luz para Todos, que garante acesso a fontes de energia limpa, segura e barata, combatendo a pobreza energética e alinhando-se aos ODS da Agenda 2030”, diz Sampaio. 

Criado em 2003, o programa do Governo federal tem como intuito universalizar o acesso à energia no país, especialmente em áreas afastadas e periféricas e já impactou 17,5 milhões de pessoas. Para essa nova fase, uma das frentes é justamente possibilitar a instalação de placas solares em domicílios de baixa renda. 

Jan Haverkamp, da WISE, defende como em muitos países o investimento na energia nuclear desvia efetivamente o foco e dinheiro para medidas concretas no combate às mudanças climáticas, o que não é verídico: “As fontes de energia renováveis ​​produzem atualmente mais energia do que a nuclear em todo o mundo, e essa quantidade continua aumentando. A geração nuclear está mais ou menos estável há 3 décadas. A Finlândia, por exemplo, está atrasada na implementação de energia eólica desde que decidiu construir a usina Olkiluoto 3, que sofreu um atraso significativo”.

Segurança x planejamento

De acordo com estimativas de 2024 da Agência Internacional de Energia, a demanda energética global aumentará 4% ao ano entre 2024 e 2025, cifra bem maior que os 2,5% registrados em 2023. Os principais impulsionadores serão o maior uso de ar-condicionado devido justamente às mudanças climáticas, a progressiva eletrificação da frota de veículos, imprescindível na descarbonização do setor, e pelo avanço das Inteligências Artificiais (IA). 

2
Demanda por energia pelas big techs só cresce, tal qual o uso de água potável para resfriamento dos computadores, o que aponta para uma necessidade de consciência ao usar IAs e a internet -  Foto: Microsoft / Divulgação

Os data centers deverão mais que duplicar as suas necessidades de energia até 2030 segundo a AIE, ultrapassando em alguns anos a energia consumida pelo Japão. Corroborando com esses indicativos, o Ministério de Minas e Energias realizou um estudo que aponta para um aumento de 25% na necessidade de produção energética brasileira até 2034. Nesse cenário, uma questão levantada na transição energética é a segurança e expansão necessárias para a manutenção sadia da sociedade.

Carlos Schön argumenta sobre o papel da energia nuclear, portanto, e as questões em relação ao clima: “Nós produzimos muita energia, mas ainda é pouco considerando o tamanho do país [...] a energia nuclear é a principal aliada das fontes renováveis, justamente porque essas dependem de fatores extrínsecos (sol na geração fotovoltaica, vento na geração eólica) que por sua própria natureza são flutuantes”.

Uma vez extraído do solo, o urânio pode abastecer por décadas uma usina nuclear, as quais em média podem funcionar por 40 anos, com a possibilidade de extensão, como no caso de Angra I, em funcionamento desde 1985 e renovada até 2044. Tudo isso acontece também sem depender de fatores externos como o vento, que pode danificar as hélices das turbinas eólicas, as nuvens que afetam a produção solar e a variação dos reservatórios que impactam as hidrelétricas. 

Contudo, Ana Fabiola Leite Almeida, professora do Departamento de Engenharia Mecânica e Produção da Universidade Federal do Ceará (UFC) e Mestre em Química pela instituição, destaca que o problema reside no planejamento energético. Mesmo que a produção diminua, é algo manejável com vontade. “O risco não está nas renováveis em si, mas na falta de planejamento. Em cenários críticos, pode haver queda média de 20 a 40% na produção energética dependendo da região, mas com previsibilidade climática, diversificação geográfica e sistemas híbridos conseguimos mitigar esses efeitos”, explica Almeida.

Em períodos como de ondas de calor em que a demanda energética aumenta, fontes como as termelétricas passam a ter maior participação na produção de energia, e como são mais caras que as hidrelétricas, a conta de luz pressiona o bolso da população. Segundo dados do Instituto Brasileiro de Geografia e Estatística (IBGE), no acumulado de 2023 o aumento na tarifa foi de 9,52%, bem acima da inflação, de 4,62% no mesmo período. 

Relatório de 2024 do Tribunal de Contas da União (TCU) em parceria com a Agência Nacional de Energia Elétrica (Aneel) e a Empresa de Pesquisa Energética aponta que a nuclearização não resolveria justamente essa questão. A energia nuclear produzida em Angra III aumentará em 2,9% a conta de luz por ano e custará à população até 77 bilhões em despesas na contratação se a obra for concluída.

3
“Existe todo um investimento que pode ser perdido, mas não justifica a continuidade de Angra III. É o resultado do  mal planejamento e desalinhamento com a política energética aponta Rarisson do Greenpeace - Foto: Eletrobras / Divulgação

O mesmo estudo do TCU destaca que as despesas com a obra “parada” chegam a R$2 bilhões por ano e uma desistência definitiva custaria cerca de R$13 bilhões, menos que o montante necessário para conclusão. Países como Áustria, Portugal e Dinamarca não classificam a energia nuclear como uma fonte limpa, e Itália e mais recentemente Alemanha, desativaram seus reatores ainda em funcionamento.

No caso do Brasil em relação ao setor de energias, as renováveis se destacam em várias frentes. Segundo o “Atlas Eólico” de 2022 do governo do Espírito Santo em parceria com a Embaixada Alemã, o potencial de geração pelo vento somente no estado é de 160 GWh, quase um terço da demanda anual do país hoje.

A energia solar também é outro enorme potencial, levando em consideração que o Brasil é o país que mais recebe irradiação solar no mundo, até então desperdiçado. Em 2023 a companhia de consultoria BloombergNEF apontou que se as políticas de incentivo à modalidade permanecerem iguais, em 2050 a capacidade de geração será de 121 GW por ano. Na ocasião, o presidente da Associação Brasileira de Energia Solar (Absolar), Ronaldo Koloszuk, defendeu que isso pode acontecer ainda em 2040 com apoio e expansão do setor. 

Ana Fabiola destaca: "O Brasil tem um dos maiores potenciais renováveis do mundo, mas para isso precisamos investir em inovação, infraestrutura de rede, armazenamento e educação técnica [...] é preciso ter suporte de armazenamento, interligação entre regiões e tecnologias de resposta à demanda. As fontes renováveis podem sim suprir a demanda crescente se houver vontade política e investimento contínuo", afirma. 

4
Maior parque solar do mundo fica em Minas Gerais e foi inaugurado em 2023, fazendo com que a capacidade do estado chegue a 8 GW por ano - Foto: Solatio / Divulgação

Potencial radioativo denso

Falando em demandas futuras e recursos para sanar problemas sem gerar mais, uma outra implicação da energia nuclear gira em torno dos resíduos perigosos da atividade. A World Nuclear Association aponta que o resíduo nuclear equivalente à demanda de uma pessoa por um ano é do tamanho de um tijolo. Pode não parecer tanto de início, mas o problema está na radioatividade do material. 

A meia vida do urânio 235, o tempo que o material leva para se desintegrar e deixar de ser extremamente radioativo, gira em torno de 700 milhões de anos. Durante esse tempo as substâncias líquidas e sólidas precisam ficar armazenadas e isoladas do mundo, seja em reservatórios subterrâneos, piscinas gigantes ou toneis de chumbo. Não existe hoje uma solução para esse material, e como os primeiros usos são do século passado apenas, respostas sobre o comportamento dele também não foram encontradas. 

Isso em si já acende um alerta pois relega uma questão das gerações passadas às futuras, e a possível fuga de material radioativo das usinas pode colocar em risco a segurança nacional com a produção de bombas. Mas olhando para a história mais uma vez, a situação se complica. Em 1986 ocorreu na atual Ucrânia o famigerado desastre nuclear de Chernobyl, zona até hoje inabitável. A explosão da usina contaminou uma área de milhares de quilômetros ao seu redor, causou milhares de mortes e adoeceu os que resistiram. Um caso mais recente foi em Fukushima no Japão em 2011, que apesar de menor e diferente, reforça o cuidado exigido. 

Aquilino Senra afirma que a questão é muito relevante no debate atual, mas avanços foram feitos e que não deve ser a única levada em consideração: “É essencial que seja considerado dentro de um contexto histórico e tecnológico, à luz dos avanços obtidos nas décadas subsequentes e da comparação com outras fontes de geração de energia, como as fontes fósseis, que também provocam milhares de mortes anuais em decorrência da poluição atmosférica”.

A Organização das Nações Unidas estima que por ano a poluição atmosférica mata entre 7 e 8 milhões de pessoas ao redor do mundo. Somente no ano de 2021, 8,1 milhões de pessoas morreram, além do fator contribuir decisivamente para o desenvolvimento de câncer de pulmão e doenças respiratórias. 

Fazendas de turbinas eólicas, sítios de placas solares e usinas hidrelétricas também estão sujeitas a acidentes e impactam o meio ambiente, mas em um grau muito menor. Além dos grandes desastres, existe a possibilidade de vazamento de material radioativo. No Brasil, por exemplo, a Comissão Nacional de Energia Nuclear constatou um caso em 2022 na unidade de Angra I, no qual a água contaminada chegou ao mar. Na ocasião, a Eletronuclear foi multada em mais de R$2 milhões de reais pelo órgão

5
ONG fez protestos em frente a usina de Angra I e relembrou o desejo ilegal de milhões de litros de água contaminada pela usina em 1986 - Foto: Greenpeace Brasil / Divulgação

Rárisson do Greenpeace destaca: “a energia nuclear não tem lugar em um futuro seguro, limpo e sustentável. A energia nuclear é cara e perigosa. Apesar de oferecer energia não intermitente, há outras soluções no país que podem ser mais eficientes, seguras e baratas [...] só porque a poluição nuclear é invisível não significa que seja limpa, nessa conta toda, a energia nuclear é inexpressiva”.

Mesmo assim, nos últimos anos empresas e nomes do vale do silício floresceram no cenário da nuclearização em defesa dos chamados Small Modular Reactors (SMR), em tradução livre, pequenos reatores modulares. Segundo a Agência Internacional de Energia, as unidades menores podem ser uma solução para a demanda crescente por energia dos data centers, e por serem menores, construídos em uma fábrica e depois enviados ao local de destino, podem baratear os custos.

Com um tempo de construção diminuído para cerca de 5 anos em comparação aos reatores convencionais e cinco vezes menores em tamanho, o primeiro SMR instalado no mundo data de 2023 na China, o Linglong One. A capacidade do reator será de 1 GW quando entrar em operação regular segundo a Corporação Nacional de Energia Nuclear da China. Mesmo assim, de acordo um estudo independente da Universidade de Stanford que avaliou os dados preliminares da empresa norte-americana NuScale Power, mais lixo radiativo é gerado e há maior dispersão de energia no interior dos SMRs.

Os principais projetos na área ainda vão levar tempo também, com expectativa de começarem a operar em meados da próxima década apenas, como o da britânica Rolls Royce. Ainda existe a startup de Bill Gates, Terra Power, com expectativa que o seu reator em Wyoming, o estado menos populoso do país, entre em operação no começo de 2030. No entanto, nessa data as emissões de CO2 na atmosfera já deverão ter caído 42% para que o aquecimento fique em 1,5 graus celsius de acordo com o relatório de 2024 da United Nations Environment Programme.

 “Não é surpresa que tecno-oligarcas como Gates, Musk, Zuckerberg e Bezos sejam especialmente atraídos pelas ideias por trás de pequenos reatores nucleares modulares. Mas eles não percebem que essas tecnologias são fundamentalmente diferentes da internet ou mesmo das estruturas de energia renovável, incluindo armazenamento, com custos mais elevados em comparação com sistemas totalmente renováveis, tempos de desenvolvimento muito mais longos e sérios riscos”, alerta Jan Haverkamp da WISE International.

Esclarecendo dúvidas sobre os riscos em uma conversa com Luiz Padulla
por
Clara Dell'Armelina
|
05/05/2025 - 12h

O mundo está farto de plástico. Estão presentes em utensílios, móveis, roupas e, agora, também nos alimentos, mas não para por aí, estudos recentes, como o feito por pesquisadores da Universidade de São Paulo (USP), comprovam a existência de plástico acumulado no corpo humano. Estamos falando de microplásticos, pequenas partículas de plástico com dimensões inferiores a 5 milímetros causadoras de danos tóxicos aos seres vivos. 

A presença de plástico nos oceanos foi detectada pela primeira vez na década de 70 e só em 2004, com o pesquisador Richard Thompson, que tivemos o conhecimento dos "microplásticos". Entre 2010 e 2020 foi quando  identificaram a presença de microplástico em toda a cadeia alimentar, mas só a partir de 2023 que as pesquisas se voltaram para mapear seus impactos na saúde humana. O professor, biólogo, doutor e autor do blog "Biólogo Socialista", Luiz Fernando Padulla, conversa sobre o assunto com a repórter da AGEMT. Confira!

Pressão do governo Trump sobre instituições de ensino provoca medo sobre fuga de cientistas
por
João Paulo Moura
|
05/05/2025 - 12h

Instabilidade é um rótulo que nenhuma nação deseja carregar. Seja na economia ou na educação, viver em um lugar de incertezas gera apreensão a todos. E, embora Donald Trump tenha recém completado 100 dias no cargo de presidente, graças às medidas adotadas, os cientistas se encontram em um mar de insegurança nunca vivido nestas últimas décadas. Columbia, Princeton e a Universidade da Pensilvânia sofreram com os cortes e ameaças de Donald Trump. Columbia teve US$ 400 milhões em subsídios federais suspensos devido à casos de assédio a estudantes judeus. Harvard foi uma das universidades que negou as demandas da Casa Branca.

Em consequência, no dia 14 de março, o Departamento de Educação anunciou o congelamento de US$ 2,3 bilhões em subsídios para a instituição. "Uma das grandes vantagens comparativas que os EUA tinha era sua capacidade de atração e fixação de cérebros de pesquisadores de outros países, principalmente do Sul Geopolítico”, diz Cristina Pecequilo, doutora em ciência política pela USP e professora de relações internacionais da UNIFESP. Assim, se os EUA deixarem de ser atrativos, os pesquisadores se moverão a outras nações, e com isso haverá uma perda de conhecimento de ponta”, ressalta Pecequilo em entrevista à AGEMT.    

As ações tomadas pelo governo Trump provocaram um temor generalizado entre os cientistas com medo de uma possível fuga de cérebros. O termo se refere ao processo de migração de pesquisadores, cientistas e profissionais altamente qualificados. Em pesquisa realizada pela revista Nature, dos 2000 pesquisadores consultados no levantamento, 75% consideram sair do país nos próximos anos. Desde que assumiu a presidência dos Estados Unidos no dia 20 de janeiro e, em seu primeiro dia de mandato, revogou 78 ordens executivas do governo anterior, retirou o país da Organização Mundial da Saúde (OMS) e do acordo de Paris. Durante os três meses seguintes, as ações tomadas pelo governo se intensificaram, principalmente no setor econômico.  

Donald Trump segurando decreto no salão oval da casa branca
Donald Trump exibe decreto assinado no dia 20 de janeiro. Foto: Anna Moneymaker/Getty Images 

No dia 2 de abril, intitulado pelos republicanos como o “dia da libertação”, iniciou-se uma guerra comercial entre os EUA e o mundo. Com a meta de corrigir o déficit comercial internacional do país, o governo norte-americano impôs taxas a 185 países. As altas porcentagens geraram respostas das nações, principalmente por parte da China que revidou com um grande pacote de alíquotas sobre as commodities americanas. Mas as medidas não pararam somente no setor econômico. Dentro das universidades do país, o temor do corte de financiamento e da fiscalização do conteúdo dos cursos aumentou.

A tensão entre o governo Trump e as instituições de ensino superior se elevou a partir do mês de março. Investigações de programas de diversidade e inclusão foram abertas em 45 universidades, com exigências sobre a auditoria de conteúdos e as condutas de alunos em favor da Palestina. Em resposta a esse cenário, instituições e países ao redor do mundo começaram a se movimentar para atrair os cientistas que se encontram nos EUA. A Universidade de Aix-Marselha, localizada na França, lançou uma iniciativa chamada Safe Place for Science, que investirá 15 milhões de euros para apoiar 15 pesquisadores. A União Europeia lançou a campanha Choose Europe for Science, como um refúgio para a liberdade acadêmica. Bélgica, Holanda e países nórdicos vêm oferecendo bolsas e infraestrutura de ponta para pesquisadores norte-americanos. 

Além das universidades europeias, China e Índia se consolidam como potenciais concorrentes dos pesquisadores estadunidenses. “Eu destacaria a China como uma potencial concorrente, até porque basta lembrar que todos estes outros países, principalmente a França tem problemas com forças políticas conservadoras anticiência. Além dela, mencionaria igualmente a Índia, que tem investido pesadamente em ciência e tecnologia”, completa Pecequilo. 

Nos últimos anos, a China despontou como a líder mundial em número de artigos científicos publicados. Segundo Ministério de Ciência e Tecnologia da China, em 2024, o país destinou mais de US$ 496 bilhões para pesquisa e desenvolvimento. Esse valor corresponde a 2,68% do Produto Interno Bruto (PIB) chinês, sendo o segundo maior investidor mundial em pesquisas, atrás apenas dos Estados Unidos. 

A Índia também tem se destacado como uma potência emergente em ciência e tecnologia, apesar de ainda apresentar desafios estruturais. O país investe 0,64% de seu PIB em pesquisa e desenvolvimento. Entretanto, esse investimento tem crescido de forma constante, dobrando na última década. O governo indiano é o principal financiador, respondendo por mais da metade do total, com destaque para agências como o DRDO (Defesa), o Departamento de Espaço e o Departamento de Energia Atômica. 

Apesar das incertezas internas e das ameaças que pairam sobre o sistema científico dos Estados Unidos, a ciência mundial está encontrando novos centros. Essa reconfiguração global do conhecimento pode redefinir o papel dos EUA como epicentro da inovação e da produção científica.

Documentário I’m Not a Robot instiga o telespectador a refletir sobre a evolução das máquinas
por
Vítor Nhoatto
|
08/04/2025 - 12h

Não sou um robô, uma etapa de checagem comum ao navegar na internet e uma sentença obviamente verdadeira, ou talvez não. O curta-metragem de co-produção holandesa e belga de mesmo nome, problematiza o chamado teste Captcha, quando a protagonista Lara (Ellen Parren, produtora musical, entra em uma crise existencial ao não conseguir provar sua humanidade.

Logo de cara o enredo de Victoria Warmerdam, também diretora da obra,  pode parecer apenas cômico, e a interpretação de Parren colabora para essa atmosfera. Os diálogos curtos e a indignação diante de uma suposta certeza de Lara prendem a atenção do telespectador ao fazer com que haja identificação com a situação. Provavelmente todos nós já erramos um destes testes simples em algum momento.

A história com pouco mais de 20 minutos continua com a indicação que a personagem tem a chance de ser 87% um robô, segundo um quiz online, e a essência incômoda da ficção científica começa a reluzir. Conversas entre humano e máquina existem há cerca de 60 anos, com a criação do chatbot Eliza, e com o avançar dos anos é cada vez mais comum, de fato.

Seja aquele número para marcar consultas ou o serviço de atendimento ao cliente das operadoras, a Inteligência Artificial rodeia as esferas da vida cotidiana e vem evoluindo rapidamente. Tome como exemplo o robô humanoide que já foi capa de revista e é considerada cidadã saudita, Sophia, da Hanson Robotics desenvolvido em 2015. Ou ainda os influencers virtuais com milhões de seguidores do Instagram hoje como a carismática Lu da empresa de varejo brasileira, Magazine Luiza.

Robô Sophia
Sophia foi inclusive ao Talk Show do apresentador norte-americano Jimmy Fallon - Foto: Hanson Robotics / Divulgação

Parece que a barreira entre o físico e digital, natural e artificial vem sendo quebrada, como aborda a obra de Margareth Boarini, “Dos humanos aos humanos digitais e os não humanos”, lançada em julho do ano passado pela editora Estação das Letras e Cores. O primeiro livro da doutora em tecnologias da inteligência e mestre em comunicação se aprofunda nesses casos de coexistência entre robôs e pessoas, porém, até onde se sabe as diferenças entre máquinas e humanos são perceptíveis, ainda. 

Mas como uma boa teoria de ficção científica, o documentário explora justamente um possível futuro da humanidade, em que máquinas e humanos serão indistinguíveis, A saga de Lara por respostas acaba com a revelação de que Daniël (Henry van Loon), marido da personagem, a encomendou sob medida há alguns anos, como se faz com uma roupa hoje.

Suas memórias, sentimentos e até mesmo relações com outras pessoas, ou robôs, são todas fabricadas, como uma versão muito mais avançada do robô Sophia. A comédia permeia a narrativa um tanto quanto impensável aos olhos de hoje, mas curiosa. A seriedade da executiva da empresa que fabricou Lara, Pam (Thekla Reuten) cria uma atmosfera cômica ao assunto, completada pela tranquilidade que Daniël fala sobre sua “aquisição”.

Parren entrega uma atuação que transborda indignação, e o trabalho cinematográfico é inteligente, com cortes que acompanham a visão de Lara. Sobre o ambiente que o filme se passa, todas as gravações foram no CBR Building em Bruxelas, e a ambientação feita com cores vibrantes e apenas carros de época no estacionamento propõe um contraste entre antigo e moderno, frio e robótico, quente e humano. 

O desfecho se dá com o desejo da protagonista de ser dona do próprio destino, relegando o fato de não poder morrer antes de seu “dono”. Isso pode ser visto talvez como uma negação em aceitar a única coisa que a diferencia de um humano, ou como uma mensagem da autora da obra sobre uma rebelião das máquinas.

Fato é que Lara se joga do topo do prédio, em um take muito inteligente por parte da direção ao filmar de cima, e que apesar de pesado e grotesco consegue ser engraçado e não desagradável aos olhos. Tal qual uma morte comum, há muito sangue saindo do corpo, as necessidades fisiológicas também são como de humanos, mas após alguns instantes a robô volta à vida.

Lara e Daniel em um Volkswagen Fusca azul
Com cinematografia cativante e enredo inesperado, é um Sci-Fi cômico e dramático - Foto: Indie Shorts Mag / Reprodução

Incômodo e perspicaz são boas palavras para definir a quinta produção de Warmerdam, que a fez faturar uma série de prêmios internacionais incluindo o Oscar de Melhor Curta-metragem deste ano. Sua produção também se destaca por ser carbono neutro, com o plantio de uma agrofloresta na Holanda para compensar as emissões de gás carbônico (CO2) da obra.

I’m Not a Robot está disponível de forma gratuita no YouTube desde o dia 15 de novembro de 2025 no canal The New Yorker, com legendas apenas em inglês ou holandês. Mesmo com essa barreira linguística, o choque final é inevitável, e a reflexão provavelmente também, se o seu cérebro não estiver se perguntando se você pode ser também um robô.

O HCFMUSP recebeu robôs que ajudam no atendimento, diminuindo o contágio
por
Mário Gandini
|
01/10/2021 - 12h

Por Mário Gandini 

No começo da pandemia, no ano de 2020,o Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (USP) recebeu robôs que permitiram aos médicos da unidade fazer atendimento aos pacientes com COVID-19, remotamente, usando recursos de telepresença. Os equipamentos foram doados pela empresa de tecnologia Pixeon e estão em cinco áreas do HC sendo usados para visitas virtuais de familiares aos pacientes internados e até mesmo na triagem, tudo isso com a finalidade de manter esse distanciamento social.

A doação reforça a estratégia da Pixeon de oferecer a hospitais e clínicas tecnologias que permitam aos pacientes uma jornada de saúde cada vez mais digital, sem deixar de lado o aspecto humano, tão importante em qualquer tratamento. O uso de robôs na medicina não é nenhuma novidade, principalmente na área da cirurgia. Com a chegada da pandemia muitos avanços foram agilizados e era de se esperar que essas inovações seriam realizadas de forma orgânica, fora desse cenário caótico que estamos vivendo com milhares de mortes decorrentes do Covid-19. Uma das grandes inovações foram os robôs usados no Hospital das Clínicas para realizar a triagem dos pacientes com suspeita de Covid-19

 

Na etapa de triagem, logo quando uma nova pessoa chega no ambulatório, o enfermeiro é quem controla o robô, se mantendo afastado de quem está com suspeita de contaminação. O robô se aproxima e realiza as primeiras perguntas, como, por exemplo, se a pessoa já apresenta problemas respiratórios etc. Em alguns casos, até mesmo os pacientes internados na UTI, quando precisarem de ajuda dos profissionais de saúde, são atendidos via robô. Thiago Maciel, formado em Ciência da Computação e funcionário do Hospital das Clínicas na área de tecnologia explica que durante a pandemia muitas empresas com projetos de utilização de robôs. "Ajudamos principalmente na parte da aplicação do desenvolvimento" como foi o caso da televisita. "O robô vai até o leito, se posiciona da melhor forma e faz a chamada com a família, com o pessoal que está de fora, e então podem usar vários softwares, como o do próprio aparelho ou o zoom, ou o WhatsApp”, afirma.

robôs usados na pandemia no HCFMUSP
Robôs usados na pandemia  no HCFMUSP
crédito: Divulgação O Globo

Maciel conta ainda que a pandemia trouxe necessidade de soluções tecnológicas que estavam em segundo plano. Projetos engavetados e ideias inovadoras tornaram-se prioridade numa sociedade pulsante por inovações. Além da aceleração de projetos antigos, muitos profissionais estão trabalhando para inovações tecnológicas. “Nós ficamos com um protótipo de um carrinho autônomo que não chegou a ser usado com o mesmo volume que o da televisita". Ele planeja integrar esse carrinho em projeto um pouco maior na UTI. "A nossa ideia é que todos os dispositivos de uma UTI se conectem em uma mesma rede e transmitam dados de forma uniforme para nós conseguirmos enxergar tudo sobre o paciente em um mesmo local", planeja. Mais: "hoje em dia não é assim, nós pensamos em um paciente um pouco mais complexo, ele tem um ventilador mecânico ligado a ele, uma bomba de infusão para aplicação de medicação, um monitor multiparamétrico e eventualmente mais um aparelho que ajuda na respiração. Então, você olha o posto de enfermagem tem várias telas, cada uma para você enxergar uma coisa, a ideia é justamente unificar esses dados que alimentarão a inteligência artificial do robô para ele tomar as decisões necessárias”, prevê.

 

 

Com a crise energética de 2021, a energia solar é uma alternativa para minimizar danos econômicos
por
Rafael Monteiro Teixeira
|
01/10/2021 - 12h

Por Rafael Monteiro

No final do segundo trimestre de 2021 um antigo alerta, que não era aceso desde 2001, está em evidência. Trata-se de uma nova crise energética, que obriga o País economizar energia mais uma vez. Por conta da crise hídrica, que leva ao problema em relação a energia, a conta de luz aumentou seu valor em 5%, além da aplicação de sucessivos aumentos nas bandeiras tarifárias, fato que tem pesado no orçamento das famílias ao redor do Brasil.

Nesse cenário atual, a saída mais viável seria a adoção de novas maneiras de se conseguir energia. Entre elas os painéis solares ou fotovoltaicos, que devem evoluir bastante, tanto no Brasil quanto em outros países, nos próximos anos. Mas primeiro, o que é energia solar? Se trata de toda a energia proveniente do sol, sendo essa térmica ou luminosa, fornecida em forma de radiação solar. É considerada por estudiosos como uma fonte energética inesgotável e superior a outras fontes de energia renováveis, como por exemplo, eólica, hídrica e geotérmica.

E para se obter essa energia solar é preciso dos painéis solares cujos preços para instalação podem variar bastante, podendo ser de R$ 4mil até R$ 10mil para uso residencial, e o preço apenas do painel pode ser de R$750 até R$900 por unidade.

painéis solares 1
Painéis solares (Imagem- Google imagens)

Além do próprio painel, também tem que ser comprado e instalado um inversor, que transforma e habilita a energia acumulada pelos painéis para que se possa utilizar em casa, onde os preços são de R$1.500 à R$40mil. Outro dispositivo importante seria as baterias solares, pois elas armazenam a energia restante, possuindo quatro tipos:  Baterias AGM (para instalações pequenas), Baterias Monobloco e Estacionárias (para instalações de uso contínuo) e as Baterias de Lithium (funcionais, porém com preços elevados).

Também é preciso contar com alguns outros elementos, como uma estrutura de suporte para os painéis, um contador bidirecional, cabeamento, um regulador de carga, e claro, o mais importante uma mão de obra especializada para instalar os aparelhos. Para Gustavo Sá, Engenheiro ambiental, MSc em Engenharia de Energia e professor de Pós-graduação do Senac Jabaquara, a utilização de painéis solares em residências é possível, porém não de imediato:

“Com um payback de aproximadamente 3,5 anos, para um tempo mínimo de geração estimado em 25 anos, tem-se um ganho médio de 21,5 anos sem pagar pela tarifa de energia – TE, cabendo somente o pagamento da tarifa mínima da concessionária, caso a unidade consumidora seja conectada à rede (on grid). O problema, creio eu, é o acesso ao recurso, pois prover um montante médio de R$ 13 mil para adquirir um sistema fotovoltaico e suprir o consumo de uma residência com 4 pessoas, muitas vezes não é fácil. Mesmo assim, observa-se que as pessoas preferem trocar seu veículo por um mais novo com esse recurso, mesmo que obtido em financiamentos (pagando juros não tão suaves), mas têm resistência em adquirir um ativo (isso mesmo, um ativo, gera lucro, já o carro só deprecia) e facilidade para financiar um veículo.”

Ele explica que existem dois tipos de energia solar mais comuns, a solar fotovoltaica (geração de energia elétrica) e solar térmica (aquecedores para água), ambas com contribuições positivas para o setor energético. “Para a geração solar fotovoltaica, cabe ressaltar que a geração pode ser feita em pequena escala (Geração Distribuída – GD: residências, comércios e indústrias, onde a unidade consumidora pode gerar sua própria energia e injetar o excedente na rede local) e grande escala (Geração Centralizada – GC: projetos de geração de energia elétrica de grande porte, voltados ao abastecimento público por leilões públicos de energia ou por venda no mercado livre de energia).” Diz Sá, ressaltando como funciona a energia solar fotovoltaica.

Ele fala também da geração de energia de grande e pequeno porte: “Para a geração de grande porte, existe uma regulação diferenciada, cujos incentivos são inerentes às fontes renováveis, aplicando-se ao atendimento público da oferta de energia ou pelos produtores do mercado livre de energia, o ML”, explica. Mais: “Para a geração de pequeno porte, em GD, que têm sido alvo de muitas discussões e polêmicas, a política energética praticada no país não prevê incentivos diretos, na forma de tarifas prêmio, por exemplo (buscar por feed in tariff). O que existe são convênios do Confaz que reduzem ou zeram alguma carga tributária (a depender da adesão por estados), o que na prática, reduz o preço dos kits de equipamentos”, informa.

É possível afirmar que a política energética atual do País não relaciona incentivos financeiros à importância da GD, que incluí a energia solar fotovoltaica, para o sistema interligado nacional (SIN). “Primeiramente é necessário dizer que a geração de energia solar fotovoltaica requer do sistema local uma capacidade de suporte, pois se todas as unidades consumidoras passarem a injetar energia na rede, certamente haveria a necessidade de uma atualização dessa rede local, entenda-se investimentos em ampliação”, prevê.

painéis solares
painéis solares com uma estrutura de suporte (Imagem- Google imagens)

Nesse contexto, a injeção de energia gerada por fonte fotovoltaica distribuída, dentro dos limites que o sistema suporta na atualidade, certamente é benéfica, pois evita-se que a energia gerada remotamente em usinas de fontes diversas tenha a necessidade de ser transmitida (pelas linhas de transmissão de energia, essenciais para este fim). Mas, ainda no ponto positivo, se por exemplo, uma residência produz exatamente a média de energia que necessita consumir, através de um sistema fotovoltaico de pequeno porte, não necessitando dessa forma injetar excedentes na rede, tem-se um cenário essencialmente positivo, pois supre a necessidade daquela unidade consumidora e ao mesmo tempo não exige da rede local um suporte, justamente por não estar injetando energia e sim consumindo somente o que necessita.” Comenta o engenheiro ambiental, sobre como alguns pontos positivos da energia solar para uso residencial e com ela pode reduzir os impactos da crise energética.

Vai na contramão da sustentabilidade energética-econômica e ambiental, já que a diversificação da matriz energética se constitui no melhor cenário, principalmente quando pensado em termos da "avaliação do ciclo de vida – LCA” sobre a implementação dos painéis. Ele ainda complementa que é preciso ser avaliada a possibilidade de uma matriz cada vez mais limpa, com fontes renováveis em geral, eliminando os combustíveis fósseis. Se durante a noite o sistema solar não gera energia, e então se a necessidade por energia é maior, a única forma seria armazenar durante o dia e distribuir a noite, fato que implicaria em uso de baterias (em grande escala e com proporções físicas gigantescas), tornando nos padrões de mercado de hoje, inviável. É necessário saber que, por exemplo, a utilização do hidrogênio vem se mostrando muito importante no contexto da sustentabilidade ampla, ou seja, econômico-energética e ambiental.

painéis solares 2
Painéis solares (Imagem- Google imagens)

 Sá garante que o que se percebe pelo ponto de vista da avaliação de ciclo de vida, é que um sistema de geração fotovoltaica tem tantos problemas quanto os demais, contudo, ao utilizar a energia do sol para conversão em energia elétrica, há diversos pontos de economia, principalmente porque dezenas de milhares de km de linhas de transmissão podem deixar de ser implantadas, conhecido como “do berço ao túmulo” na LCA. Assim, a possibilidade de gerar energia no local onde irá consumi-la é outra característica positiva importante no uso de painéis solares.

Em 25 de agosto de 1991, o desenvolvedor mandara uma mensagem dizendo que estava com o sistema operacional quase pronto
por
Julia Nogueira
|
11/09/2021 - 12h

Por Julia Nogueira

Este ano conta a marca de 30 anos do lançamento (17 de setembro de 1991) e da criação do engenheiro de software, Linus Torvalds, do sistema operacional Linux. O pinguim Tux (mascote oficial do Kernel Linux) segue representando mais de 600 distribuições existentes, e até hoje um dos maiores exemplos de colaboração de software livre. Com essa filosofia contrapondo a lógica dos mercados, o Linux ainda é de pouco conhecido das pessoas.

Cristina Motinha, 26, utiliza uma distribuição do Linux há mais de cinco de anos, e afirma que “é muito ‘não natural’ para nossa sociedade pensar que alguém vai fazer algo e deixar você usar de graça. E o software livre vem justamente para mostrar que não, que é possível você retornar seu conhecimento para comunidade sem cobrar. "É possível você distribuir gratuitamente e ainda assim pessoas pagarem pelo produto, mesmo podendo usar de graça. É um ‘modelo de negócio’ que não é fácil de ser compreendido, e por isso, acaba ficando muito fechado nas bolhas de computação, essa discussão não sai pra sociedade como um todo", afirma. Não chega nas escolas, "no máximo alguém esbarra nisso quando faz algum trabalho sobre pirataria". O software livre que muita gente interpreta como "software de graça" na verdade é muito mais do que isso, é uma mensagem de inclusão, de comunidade, de dar sem esperar algo em troca.”

Se Torvalds, 30 anos atrás, foi o passe para a criação, o Linux se mantém porque desenvolvedores e colaboradores do mundo todo avançam ao longo desses anos com o código aberto para todos. Motinha complementa: “eu vejo o software livre como uma horta comunitária: todo mundo ajuda com o que pode, vai ter gente fazendo muito, gente que não pode colaborar, mas todos os envolvidos sabem que todos tem direito a comer o que surgir dali.”

Centenas de distribuições podem ter vindo a acrescentar ao longo do tempo, mas esses 30 anos mostram que o que não mudou é que mesmo sob a perspectiva de inclusão digital, continuamos à mercê da lógica do mercado, e desinformação sobre o universo de software livre confirma isso. Cristina continua:  ”Tudo de computação é visto como feito por outros países, e o preço fica salgado pela conversão do dólar/importação, e assim como tem milhões de jogos piratas para os consoles, tem muitos CDs de softwares piratas também. Então, acaba juntando tudo. Você aprende na aulinha de informática a usar o Windows; vai pro seu trabalho, nos computadores Windows e Microsoft Office; vai pra casa, no seu notebook que já veio com Windows instalado. Vale a pena ficar sofrendo porque o formato do Libre Office não é compatível com o Word do trabalho? Mais fácil comprar um CD por 10 reais no camelô”, explica.

Mais do que apenas recuperar computadores velhos que não rodam novas atualizações de Windows, o Linux está presente em lugares que nem se tem ideia, como smartphones Android e as Smart TVs e, cerca de 85% das empresas o utilizam em seus servidores, como os casos do Facebook, Google, Amazon e até a NASA. Longe de alcançar a predominância do Windows nos desktops, a “horta comunitária” ainda cresce a cada dia, sem desviar da filosofia proposta 30 anos atrás.

Jogado de maneira inteligente e pensado na segurança do praticante, o esporte prevê equipamentos pessoais e tecnologias de transmissão atualizadas
por
Gabriel Aragão Rodrigues Pereira
|
04/11/2021 - 12h

Por Gabriel Aragão

O futebol americano, por natureza, é um esporte de contato que exige muito do físico de seus atletas e, diferentemente de muitos outros, seu equipamento é pesado e cobre diversas partes do corpo. Seu uso é essencial para a saúde do praticante, mas a consciência coletiva sobre sua relevância nem sempre foi tão elevada quanto é hoje, tendo avançando de mãos dadas com a tecnologia.

Na década de 1920, o capacete era feito de couro endurecido e depois o couro moldado (sim, o mesmo material usado em carteiras) tomou o lugar na proteção. Em 1949, o plástico é adotado para os capacetes ganhando, também, acolchoamento, mas não parou aí, sendo sempre aperfeiçoado até a versão que é hoje.

Em conversa, Paulo “Mancha” D’Amaro, comentarista e historiador de futebol americano, aponta inclusive para a importância do desenvolvimento desse equipamento para a segurança do jogo: “o capacete hoje em dia é desenvolvido de modo tecnológico, ele é simples, na verdade, mas é feito com cada vez mais testes para absorver os impactos e minimizar as chances de concussão”, explica. O comentarista lembra também que, nos primórdios do jogo, o esporte correu sérios riscos de ser banido por Theodore Roosevelt em 1905, por conta de muitas lesões e algumas mortes, resultando em mudanças de regras para um jogo mais seguro.

No capacete também se inseriu a facemask. Originalmente, se tratava apenas de uma barra. A facemask entrou em campo quando o técnico do Cleveland Browns, Paul Brown, exigiu que seu quarterback, Otto Graham, a utilizasse depois de sofrer um corte, precisando de 15 pontos no queixo. Nos anos 1970 foi adicionada uma nova barra (abaixo da original) com outras menores, ligando as duas, versão que ficou conhecida como “full cage”. Duas décadas mais tarde chegou a versão “grill”.

Evolução do capacete e da facemask.
(Evolução do design do capacete e da facemask. Ilustração de Sarah Niemann)

Todas essas mudanças foram pensadas com intuito de preservar a saúde dos jogadores, uma vez que as concussões são algo comum no esporte. Porém, não é só a cabeça que está em risco no futebol americano. Nos ombros, a proteção foi de feltro, lã e couro nos anos 1920, para espuma, couro endurecido, fibra sintética até, finalmente, plástico nas décadas de 1950 e 1960. A partir daí as grandes mudanças foram no design com os shoulder pads diminuindo de tamanho e o peso, ajudando na qualidade do jogo, sem perder a capacidade de proteger os atletas. O mesmo vale para o acolchoamento nas costelas, no abdômen, no quadril, nas coxas e nos joelhos.

Em entrevista, Patrick Dutton, fundador e CEO da Rio Football Academy (RFA), além de ter experiência como jogador, disse que, no cenário brasileiro: “Tem muitos atletas com condição de comprar do melhor e a gente vê bastante gente usando o mesmo equipamento da NFL (National Football League), quando se trata de capacete, proteção de ombro, chuteira, luva. A qualidade é muito boa”, opina. O que contribui para uma situação complexa é que, como Dutton lembra, existem mais lojas que vendem o necessário para a prática, mas, na acachapante maioria, é material importado, fazendo do custo arcado pelo jogador ser maior. Por esse lado, Dutton completa a questão anterior afirmando que ainda tem muitos atletas que usam equipamentos precários ou "equipamentos com mais de 10 anos de uso. Isso com certeza é prejudicial e é um perigo para a saúde física e mental dos atletas”, afirma.

Paulo Mancha lembra que nas décadas de 2000 e 2010 a ênfase das tecnologias desenvolvidas para o futebol americano se voltou a saúde dos praticantes, depois de anos projetando em como vender melhor o jogo e atrair mais fãs. Isso se deu pensando que a Encefalopatia Traumática Crônica (ETC) se tornou um problema conhecido publicamente, tanto na NFL como na National Collegiate Athletic Association (NCAA), que rege o esporte em nível universitário. O comentarista ainda encontra um papel importante da evolução da tecnologia nesse sentido fora do campo, com a inserção de um protocolo médico em suspeitas durante a partida, através de exames clínicos e com equipamento médico. Mas quando falamos de NFL e NCAA, estamos tratando da principal liga profissional do esporte no mundo e da principal organização do futebol americano em nível universitário, portanto, duas empresas bilionárias.

Pensando na brutalidade do futebol americano e no status do esporte no Brasil, Dutton afirmou que é irresponsável praticar o esporte (que no país é amador) sem plano de saúde.

Nem todas as melhorias tecnológicas no futebol americano, porém, são em prol da saúde, mas também no lado estratégico. No capacete, por exemplo, o quarterback e um jogador de defesa, de todos os times, tem um ponto eletrônico para ouvir qual jogada o técnico escolheu e que deverá ser executada. A partir daí, ele passa as instruções aos seus companheiros em campo. A ideia foi pensada por Paul Brown e no início houve dificuldades, como interferência do rádio da polícia e, em uma partida em Nova Iorque, até rádio de aviões, mas a ideia foi abandonada até voltar para o QB em 1994 e chegar ao lado da defesa em 2008.

No caso do Brasil, se tratando do aspecto tático, Dutton aponta para as plataformas de vídeo como Hudl, pensadas inteiramente no esporte para o estudo de vídeo e, por consequência, traçar a estratégia de jogo.

Paulo Mancha lembra que as melhorias tecnológicas desenvolvidas por causa do futebol americano tendem a se espalhar por outras ligas americanas, como as de beisebol, basquete, hóquei no gelo e até no automobilismo, através da troca de informações. O comentarista até cita que um “grande exemplo negativo disso é o VAR no futebol, mais por culpa do futebol, da FIFA e das confederações [do esporte], que são muito arrogantes e nunca foram buscar, junto à NFL, informações do Instant Replay. A NFL usa o replay desde 1994, então tem muito know-how disso, mas o futebol preferiu partir da estaca zero”.

A utilização do replay por aqueles que apitam os jogos da NFL já passou por várias mudanças. Hoje, o juiz principal do jogo vai até a lateral, onde uma pessoa segura um tablet da Microsoft com o lance sendo revisado. Além disso, o arbitro também discute com o chefe de arbitragem da liga (que fica em um escritório) o que estão vendo. Esses tablets também ajudam os jogadores fora da ação, já que podem observar o posicionamento do oponente no campo. Com isso as câmeras que revelam fotos instantaneamente perderam seu lugar no jogo. De maneira geral, a tecnologia faz o futebol americano um jogo melhor de se jogar e, por tabela, de se assistir.

O futebol americano, portanto, durante toda sua história se usou da tecnologia para evoluir, tanto na proteção dos seus praticantes que fazem as partidas acontecerem, quanto no aspecto tático, de estudo dos oponentes e formulação de uma estratégia para vencer, criando um esporte mais inteligente. 

Muitas tecnologias auxiliam o trabalho de peritos criminais
por
Rodrigo Vaz Guimarães Mendonça
|
09/09/2021 - 12h

Por Rodrigo Mendonça

      Entre as várias divisões das polícias no Brasil uma delas é a Polícia Técnico-Científica, mais conhecida somente como Polícia Científica, que por lei é subordinada aos governos estaduais, ou seja, trabalhadores dessa área são por definição legal, servidores públicos. O trabalho dos policiais dessa área implica no conhecimento de áreas da ciência e tem como uma de suas obrigações encontrar ou proporcionar as chamadas prova técnicas ou provas periciais. Em 17 de setembro de 2009, durante o governo do então presidente Luiz Inacio Lula da Silva e do ministro da casa civil Tarso Genro, foi sancionada a lei n° 12.030 que até os dias atuais regulamenta a profissão do perito criminal, um dos profissionais da polícia científica.

A importância da perícia criminal se dá pois é o órgão policial responsável por recolher e examinar resquícios de crimes sejam eles provas de que determinada situação aconteceu ou de que determinado objeto foi utilizado. Uma das áreas de atuação de um perito é com audiovisual e eletrônicos e um dos exames periciais realizados por profissionais dessa área é o exame de imagem que se responsabiliza fazer reconhecimento fácil de suspeitos de um crime para verificar se uma pessoa acusada de cometer um delito é realmente quem aparece em uma gravação ou em um relato de uma vítima ou testemunha é realmente essa pessoa.

O trabalho do perito criminal é importante para que  se uma pena for aplicada não seja da maneira errada, incriminando um inocente por exemplo. Muitas vexes, uma vítima de um delito que se confunde o suspeito com outra pessoa e trabalho do perito  garantir que isso seja corrigido, por meio da análise de imagens Existem também casos em que o próprio material recebido pela polícia é checado para constatar sua veracidade pois muitas vezes recebem material falso que se não for analisado pode levar alguém inocente a ser preso ou pagar uma multa.

Uma das tecnologias em uso por peritos no Brasil são programas que permitem a rápida localização de documentos por meio do uso de palavras chaves como Processador de Evidências Digitais (Iped). Tecnologias como essa são de grande importância para o trabalho dos peritos ser  feito em menos tempo o possível dado a grande quantidade de casos que tem que analisar.

Polícia científica do estado de São Paulo

Toda imagem recebida pela polícia científica é minuciosamente verifica, cada pixel é examinado para evitar fraudes. Uma das maneiras que isso é feito é por meio de programas que possibilitam a leitura do código binário (uma série de números 0 e 1) que constituem o código da imagem, caso exista uma quebra de padrão ou anomalia isso pode significar que a imagem foi alterada de alguma maneira.

Outro programa realiza análises em detalhes ocultos nas imagens como por exemplo em placas de veículos ou em alguns casos até a identidade de pesos em vídeos de baixa resolução, os algoritmos presentes nesse programa também conseguem sabe se houve alguma sobreposição nas imagens, se uma parte de uma fotografia foi recortada e colada em outra. Tudo em uma imagem é checado desde o ângulo, tamanho e geometria.