O engenheiro de software Linwei Ding (38), também conhecido como Leon Ding, foi preso sob acusação de ter roubado segredos corporativos da Google, onde havia trabalhado, e comercializado informações sobre projetos de inteligência artificial (IA) com outras empresas. A acusação é de que cerca de 500 arquivos confidenciais teriam sido roubados por Ding.
O objetivo do engenheiro seria entregar os documentos para duas companhias chinesas concorrentes. Os arquivos continham detalhes técnicos da construção de data centers para supercomputadores, que é importante para a criação e manutenção de sistemas de IA e modelos de linguagem em larga escala (LLM).
Leon Ding havia sido contratado pela Google em 2019, para trabalhar no setor de data centers para IA. Em 2022, contudo, a empresa percebeu que o engenheiro havia começado a copiar vários arquivos corporativos para uma conta particular do Google Cloud e que tinha iniciado uma comunicação com o CEO de uma recém-criada empresa de IA. Na ocasião, essa companhia chegou a oferecer um cargo de gerente de tecnologia para ele.
Com a escassez de placas de vídeo no mercado global, devido à alta demanda de diversos setores, como jogos e pesquisa científica, e com a restrição de fornecimento de tecnologia que os Estados Unidos fazem à China, além de outros fatores, como a censura interna, o país asiático está buscando treinar modelos de linguagem sem a utilização de Unidades de Processamento Gráficos (GPUs, no inglês).
Os modelos de linguagem em larga escala (LLM) são sistemas de inteligência artificial que podem gerar vários tipos de conteúdo, desde textos e códigos até imagens. Esses modelos precisam de uma grande quantidade de dados e recursos para serem treinados, o que inclui as placas de vídeos.
Uma das alternativas encontradas pela China para treinar LLM sem as GPUs é a utilização de modelos esparsos, que ativam apenas uma pequena parte dos parâmetros do modelo de linguagem, tornando-os mais eficientes e menos intensivos em recursos. Um desses modelos generativos de IA é o Wu Dao 2.0, desenvolvido pela Academia de Inteligência Artificial de Pequim. Ele possui 1,75 bilhão de parâmetros e pode gerar linguagem natural, código, imagens e outros tipos de conteúdo.
Outra opção é usar modelos de código aberto que podem ser executados em uma única máquina, como o GLM-130B, que é baseado no ChatGPT-3 e possui 130 bilhões de parâmetros, podendo gerar linguagem e códigos naturais. Em determinadas tarefas, o GLM-130B pode ter uma qualidade comparável à 3° versão da plataforma da OpenAI.
Recentemente, a China tem promovido uma mudança em sua política de IA e nos LLM, incentivando a população e pequenas indústrias a utilizarem esses tipos de tecnologia.