IA

Brasil e Mundo

Entenda por que a inteligência artificial exige o consumo de água

O desafio é equilibrar a expansão da IA com a sustentabilidade — um ponto que já mobiliza governos, especialistas e investidores

A inteligência artificial está transformando o mundo em ritmo acelerado — mas essa revolução digital tem um custo ambiental que começa a chamar atenção: o consumo de água.

De acordo com estudos recentes, o uso de ferramentas como o ChatGPT, da OpenAI, pode demandar até meio litro de água por interação, considerando todo o processo de resfriamento dos servidores que sustentam a tecnologia.

Modelos de inteligência artificial funcionam em enormes centros de dados (data centers), que processam trilhões de cálculos por segundo. Esse trabalho gera calor intenso, e para evitar superaquecimento, as empresas utilizam sistemas de refrigeração à base de água.

A água é essencial para manter a temperatura ideal dos equipamentos e garantir o desempenho das máquinas. Em alguns casos, parte dessa água é evaporada no processo, o que amplia o consumo total.

Estima-se que os data centers de empresas como Microsoft, Google e Amazon utilizem milhões de litros de água por dia.
Com o crescimento do uso de IA generativa — como ChatGPT, Copilot e Gemini —, essa demanda tende a aumentar exponencialmente.

Em 2022, por exemplo, a Microsoft registrou um aumento de 34% no uso de água potável em comparação ao ano anterior, totalizando cerca de 6,4 bilhões de litros. Parte significativa desse volume está relacionada ao treinamento e operação de modelos de IA.

Diante da pressão ambiental, as big techs têm anunciado medidas para reduzir a pegada hídrica.
A OpenAI e a Microsoft, por exemplo, estudam o uso de fontes de energia renovável e sistemas de refrigeração mais eficientes, incluindo alternativas com ar e líquidos não potáveis.

O desafio é equilibrar a expansão da IA com a sustentabilidade — um ponto que já mobiliza governos, especialistas e investidores.

Enquanto a inteligência artificial continua a evoluir, cresce também a necessidade de transparência e responsabilidade ambiental.
A discussão sobre o uso de água e energia se torna central na agenda das empresas de tecnologia e dos países que sediam data centers.

Afinal, o futuro digital precisa ser inovador, mas também sustentável.

COMPARTILHE NAS REDES

RMC

Campinas na mira de investidores para Instituto de Inteligência Artificial

Comitiva de pesquisadores e fundo de investimentos de Dubai avaliam a cidade para sediar centro focado em IA, destacando o potencial tecnológico e educacional da cidade

O prefeito em exercício Wanderley de Almeida recebeu na tarde desta terça-feira, 27, uma comitiva formada por pesquisadores e investidores que vieram conhecer Campinas e avaliar a possibilidade de instalação de um Instituto Brasileiro de Inteligência Artificial na cidade. A visita foi preliminar, e o grupo deve continuar o processo de análise visitando outros municípios.

Entre os participantes do encontro estavam Hussein Karaki (Iron Bank), Antônio Serra (Irede), José Mário de Aguilar Neto (Gled Global Education) e Cláudio Coata Fortier. Karaki é gestor de um fundo de investimentos de Dubai, cujo objetivo é apoiar o desenvolvimento da inteligência artificial em outros países. Atualmente, o fundo já atua em nações da Ásia. A capacitação de jovens para lidarem com essa tecnologia está entre as prioridades da iniciativa.

Durante o encontro, foram apresentados os principais pontos que tornam Campinas atraente para investimentos no setor de tecnologia. O município conta com 18 instituições de ensino superior, quatro parques científicos e tecnológicos (CPQD, CTI Renato Archer, Techno Park e Parque Científico da Unicamp), 21 instituições de ciência, tecnologia e inovação, além de mão de obra qualificada.

Wanderley de Almeida destacou ainda os incentivos fiscais que o município oferece para atrair empresas. “Estamos sempre abertos a receber novos investimentos e, mais do que isso, temos uma política de ser parceiros dessas empresas. Nosso maior objetivo é gerar emprego e renda para os campineiros”, enfatizou.

A secretária de Desenvolvimento Econômico, Tecnologia e Inovação, Adriana Flosi, ressaltou que a união entre os setores público e privado em prol de temas ligados à educação e à tecnologia gera benefícios sociais. “Temos elementos que colocam Campinas na vanguarda para receber esses investimentos, e vamos trabalhar para que nossa cidade possa sediar esse instituto focado em uma tecnologia que já está muito presente na vida de todos.”

Também participaram da reunião os secretários Aurílio Caiado (Finanças), Carolina Baracat (Urbanismo) e Marcelo Coluccini (Planejamento).

COMPARTILHE NAS REDES

Brasil e Mundo

Big tech é excluída do rol de Inteligência Artificial de alto risco

Mudança no projeto foi feita por acordo entre bancadas no Senado

Lucas Pordeus León – Repórter da Agência Brasil

O relator da CTIA, senador Eduardo Gomes (PL-TO); presidente da CTIA, senador Carlos Viana (Podemos-MG) participam da reunião da Comissão Temporária Interna sobre Inteligência Artificial no Brasil (CTIA) realiza reunião com 1 item na pauta: PL 2338/2023 que © Geraldo Magela/Agência Senado

O relator do projeto de lei que regulamenta a inteligência artificial (IA) no Brasil excluiu, nesta terça-feira (3), o dispositivo que considerava como sendo de alto risco os sistemas de IA usados pelas plataformas digitais, as chamadas big techs, para produção, análise, recomendação e distribuição de conteúdos.

São considerados de alto risco os sistemas de IA que podem causar danos às pessoas ou à sociedade. De acordo com o relator, senador Eduardo Gomes (PL-TO), a retirada desse trecho foi um acordo entre as bancadas para fazer o texto avançar na Comissão Especial do Senado criada para analisar o tema.

O projeto de lei 2.338 de 2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG), determina que sistemas de IA considerados de alto risco devem ser submetidos a regras mais rígidas de governança, monitoramento e fiscalização.

O texto define como de alto risco uma série de casos, entre eles, os sistemas de inteligência artificial que impactam na saúde e segurança das pessoas, como no diagnóstico médico, ou os que podem ser usados para seleção de trabalhadores em empregos, para a seleção de estudantes em instituição de ensino ou no atendimento de serviços públicos.

O trecho que se referia às big techs afirmava que seria considerada uma IA de alto risco o sistema de “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.

A coordenadora de incidência da organização Repórteres Sem Fronteiras na América Latina, Bia Barbosa, que tem pressionado para a aprovação do projeto, avaliou que o trecho foi retirado por pressão das plataformas digitais .

“Não faz nenhum sentido um projeto de lei de regulação de IA que não trate dos sistemas de recomendação e moderação de conteúdo, que são sistemas de alto risco. Só que as plataformas, assim como fazem em todos os países do mundo, se opõem de maneira significativa a qualquer regulação que venha afetar os seus negócios e, aqui no Brasil, elas têm um aliado muito significativo, que são os parlamentares de extrema-direita”, destacou a especialista.

Barbosa citou a desinformação em massa em eleições, na pandemia de covid-19 e os ataques à democracia por meio das redes socais como exemplos de danos que os sistemas de recomendação de conteúdos via IA das plataformas podem causar às pessoas e à sociedade.

Apesar dessa mudança, foi adiada para a próxima quinta-feira (5) a votação do projeto na Comissão. Havia a expectativa de que o tema fosse aprovado nesta terça-feira. O adiamento ocorreu porque não houve consenso entre os parlamentares em relação aos trechos que exigem a integridade da informação para sistemas de IA.

Projeto

O projeto que regulamenta a inteligência artificial no Brasil também estabelece os princípios fundamentais para o desenvolvimento e uso de IA. Ele define que a tecnologia deve ser transparente, segura, confiável, ética, livre de vieses discriminatórios, respeitando os direitos humanos e valores democráticos. O projeto exige também que sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e a livre concorrência.

Além de enumerar os sistemas de IA considerados de alto risco, o projeto proíbe o desenvolvimento de alguns tipos de tecnologias de IA que causem danos à saúde, à segurança ou a outros direitos fundamentais.

O projeto proíbe, por exemplo, que o poder público crie sistemas que classifiquem ou ranqueie pessoas com base no comportamento social para acesso a bens e serviços ou a políticas públicas “de forma ilegítima ou desproporcional” ou de sistemas de IA que facilite o abuso ou exploração sexual de crianças e adolescentes.

Alto risco

De acordo com o artigo 14 do projeto, são considerados sistemas de alto risco aqueles de controle de trânsito, de redes de abastecimento de água, eletricidade e “quando houver risco relevante à integridade física das pessoas”.

Também são considerados sistemas de IA de alto risco aqueles aplicados na educação e formação profissionais para determinar acesso à instituição de ensino ou de monitoramento de estudantes, além dos sistemas usados para recrutamento de trabalhadores ou para promoções no trabalho.

Sistemas de IA de “repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria” também são considerados de alto risco.

Outros exemplos são sistemas de IA para avaliação de prioridades em serviços públicos essenciais, como bombeiros e assistência médica. Também são citados no texto os sistemas de inteligência artificial usados pela Justiça para investigação de crimes, ou que tenham risco para as liberdades individuais ou ao Estado Democrático de Direito.

Os sistemas de IA na área da saúde, como para auxiliar no diagnóstico e procedimentos médicos, e para o desenvolvimento de veículos autônomos em espaços públicos são outros exemplos de sistemas de alto risco de inteligência artificial listados pelo projeto.

COMPARTILHE NAS REDES