194 visualizações 9 min 0 Comentário

Consumo elétrico para o treinamento do ChatGPT é uma barreira

- 5 de janeiro de 2024

Os aplicativos de IA voltados para o consumidor, como o ChatGPT, estão aumentando constantemente o número de usuários. OpenAI revelou em novembro de 2023 que o número de usuários ativos “semanais” do ChatGPT atingiu agora 100 milhões. Imediatamente após o lançamento do ChatGPT, diz-se que o número de usuários ativos mensais era de 100 milhões, o que significa que quadruplicou de tamanho em cerca de um ano. O que se espera no futuro é um aumento na utilização de aplicações generativas de IA nas empresas. Embora a taxa de adoção nas empresas que exigem segurança/conformidade seja mais lenta do que nos consumidores, a tendência é que aumente explosivamente nos próximos dois a três anos. Enquanto isso, um dos pontos de preocupação em relação à IA generativa é a questão do consumo de energia da IA ​​generativa. A IA generativa gera resultados enquanto processa grandes quantidades de dados na geração de texto e imagem. Há preocupações de que isso leve ao consumo excessivo de energia.

Atualmente, nenhum estudo abrangente e oficial foi realizado e não se sabe quanta eletricidade é realmente consumida, mas no Fórum de Trabalhadores Digitais realizado no Vale do Silício em novembro de 2023, especialistas fizeram algumas declarações interessantes que estão atraindo a atenção. A afirmação foi feita por Sergey Edunov, chefe do departamento de engenharia de IA generativa da Meta. Edunov afirmou no mesmo fórum que calculou o consumo de energia em 2024 à luz do recente aumento na procura de IA generativa, e disse que duas centrais nucleares poderiam fornecer a eletricidade necessária para toda a humanidade utilizar aplicações de IA generativa. Edunov reconheceu que esta é uma estimativa aproximada e não um cálculo exato, mas diz que é um bom ponto de partida para estimar quanta energia a IA geradora precisará “inferir”. Ao considerar o consumo de energia da IA ​​generativa, há duas partes principais a considerar. Um é “treinamento” e o outro é “raciocínio”.

O treinamento de IA generativa refere-se ao processo de inserir grandes quantidades de dados coletados em um modelo e permitir que o modelo aprenda padrões e relacionamentos a partir desses dados. Inferência é o processo pelo qual um modelo de IA treinado infere e gera dados altamente relevantes para as solicitações inseridas pelo usuário, com base nos padrões aprendidos. Usando o ChatGPT como exemplo, quando um usuário utiliza a aplicação, um processo de “inferência” está sendo executado. Por outro lado, é necessário um processo de “treinamento” para desenvolver os próprios modelos GPT-3.5 e GPT-4 necessários para o funcionamento do ChatGPT. Edunov estima que duas usinas nucleares podem cobrir o consumo de energia do processo de “raciocínio”, mas a lógica que leva a essa conclusão é a seguinte. Primeiro, ele indicou que o pré-requisito é usar a mais recente GPU “H100” da NVIDIA no processo de inferência. Cada H100 consome 700 watts de energia. Adicionando energia para o data center e resfriamento, assumimos que o consumo de energia por GPU H100 é de 1KW e que todos os humanos geram 100.000 tokens por dia e os utilizam em aplicações de IA. Um token é uma unidade de dados processada por um modelo generativo de IA. O algoritmo de tokenização usado pela OpenAI traduz cerca de 75 palavras em inglês por 100 tokens. Em japonês, são cerca de 100 tokens e 100 caracteres. Em outras palavras, presume-se que cada pessoa trocará o equivalente a 75.000 palavras em inglês e 100.000 caracteres em japonês todos os dias, incluindo entrada (solicitações) e saída (geração) para conversar com IA.

Edunov destaca que além do consumo de energia, surgiram novos problemas quando se trata de “treinar” modelos generativos de IA. O problema é que não há dados suficientes para treinar a próxima geração de modelos generativos de IA. Atualmente, o GPT-4 da OpenAI é considerado o melhor modelo de IA generativo do mercado, mas há rumores na comunidade de IA de que todos os dados disponíveis publicamente na Internet foram usados ​​para treinar o modelo. A teoria é considerada forte.

Se os dados publicados na Internet fossem tokenizados, o número de tokens seria de aproximadamente 100 trilhões, e se isso fosse limpo e as duplicatas removidas, estima-se que o número seria de cerca de 10 a 20 trilhões. Se o GPT-4 foi treinado com 20 trilhões de tokens, a próxima geração de modelos de alto desempenho exigirá 10 vezes essa quantidade, ou 200 trilhões de tokens. No entanto, dados de alta qualidade que podem ser utilizados para formação já não existem publicamente na Internet, e a incapacidade de garantir tokens suficientes é um constrangimento ao desenvolvimento de modelos de próxima geração.

Energia consumida pelo modelo GPT da OpenAI durante o treinamento

Especula-se nos fóruns de desenvolvedores da OpenAI que o GPT-3 foi treinado com dados de aproximadamente 300 bilhões de tokens, uma teoria não oficial. De acordo com um relatório divulgado pelo Laboratório Lincoln do MIT em 22 de novembro de 2023, o treinamento do GPT-3 consumiu aproximadamente 1.300 megawatts-hora de eletricidade. Isto equivale à eletricidade consumida por 1.450 lares americanos médios num mês. Quando convertido em uma usina nuclear como o Sr. Edunov, se a produção de um reator nuclear comercial típico for de 1 gigawatt-hora, 1.300 megawatts equivalem a 1,3 gigawatts, portanto, no treinamento GPT-3, uma usina nuclear com produção de 1 gigawatt leva 1,3 horas. Pode-se estimar que a quantidade utilizada será a mesma. Além disso, assumindo que a quantidade de dados de treinamento para GPT-4 seja de 20 trilhões de tokens, será 66 vezes o número de tokens de treinamento para GPT-3, que é de 300 bilhões, e se simplesmente convertido em eletricidade, será de aproximadamente 86 gigawatts-hora. Isto equivale a uma central nuclear de 1 gigawatt a funcionar durante 86 horas e ao consumo de energia de 95.700 lares americanos médios durante um mês. Estimativas semelhantes foram feitas pela Towards Data Science (TDS) em relação ao consumo de energia de treinamento para GPT-4.

O TDS estimado está entre 52 e 62 gigawatts-hora. Se o modelo de próxima geração do GPT-4 fosse 10 vezes maior, o consumo de energia durante o treinamento aumentaria proporcionalmente. Isto se tornou um problema para os desenvolvedores de IA e, recentemente, tem havido uma tendência de desenvolvimento de modelos de alto desempenho usando menos dados. Por exemplo, o modelo generativo de IA “Orca 2” anunciado pela Microsoft no final de novembro de 2023 segue esta tendência . É provável que 2024 seja o ano em que a ênfase estará na melhoria da eficiência dos modelos de IA, em vez de aumentar a sua dimensão, tanto para o código fechado como para o código aberto.

Portal Mundo-Nipo

Sucursal Japão – Tóquio

Jonathan Miyata

Comentários estão fechados.