Agradecimentos
O autor gostaria de agradecer a John Bansemer, Beba Cibralic, Tarun Chhabra, Teddy Collins, Andrew Imbrie, Igor Mikolic-Torreira, Michael Sulmeyer, Danielle Tarraf, Lynne Weil e Alexandra Vreeman por seus comentários sobre uma versão anterior deste artigo.
Resumo Executivo
Uma única frase pode resumir as complexidades da inteligência artificial moderna: sistemas de aprendizado de máquina usam poder computacional para executar algoritmos que aprendem com dados. Tudo o que os formuladores de políticas de segurança nacional realmente precisam saber sobre uma tecnologia que parece ao mesmo tempo poderosa, misteriosa e na moda é capturado nessas 15 palavras. Elas especificam um paradigma para a IA moderna – o aprendizado de máquina – no qual máquinas extraem seus próprios insights a partir dos dados, ao contrário dos sistemas especialistas conduzidos por humanos do passado.
A mesma frase também apresenta a tríade de algoritmos, dados e poder computacional da IA. Cada elemento é essencial para o poder dos sistemas de aprendizado de máquina, embora sua prioridade relativa mude com base nos desenvolvimentos tecnológicos. Os algoritmos controlam o modo como sistemas de aprendizado de máquina processam informações e tomam decisões. Três classes principais de algoritmos são comuns hoje em dia: o aprendizado supervisionado, que extrai insights de conjuntos de dados estruturados; o aprendizado não supervisionado, que se destaca por encontrar estruturas ou grupos em conjuntos de dados desorganizados; e o aprendizado por reforço, que desenvolve a capacidade de um sistema de aprendizado de máquina por meio de tentativa e erro. Normalmente, esses algoritmos são executados em redes neurais, um tipo de arquitetura de programa de computador. As redes neurais fornecem enorme flexibilidade e poder, mas vêm com suas próprias limitações: principalmente, a falta de transparência por trás de seu raciocínio.
Os dados geralmente, embora nem sempre, são o meio para os sistemas de aprendizado de máquina aprenderem sobre o mundo. Se um fato não estiver nos dados fornecidos à máquina, o sistema nunca o aprenderá, principalmente no caso do aprendizado supervisionado. A aquisição de conjuntos de dados maiores e mais representativos pode fortalecer ainda mais os sistemas de aprendizado de máquina. Sem esses conjuntos de dados, vieses podem se infiltrar nos sistemas, fazendo com que tenham um desempenho ruim de maneiras difíceis de detectar.
O que é frequentemente negligenciado é que o poder computacional é cada vez mais essencial conforme os algoritmos se tornam mais complexos e os conjuntos de dados, maiores. Os últimos oito anos viram uma revolução na quantidade de poder computacional aplicada ao aprendizado de máquina de ponta, expandindo-se por um fator de várias centenas de milhares. O poder computacional afeta cada vez mais o desempenho dos sistemas de aprendizado de máquina e apresenta um custo significativo durante o desenvolvimento de um sistema.
Cada parte da tríade oferece os seus próprios fatores de influência política. O progresso algorítmico depende de que uma nação adquira e desenvolva talentosos pesquisadores de aprendizado de máquina. Conjuntos de dados maiores e melhores exigem escolhas políticas complicadas envolvendo vieses, privacidade e cibersegurança. O poder computacional pode fornecer um ponto de influência para controles de exportação na política externa, bem como um obstáculo para a pesquisa de IA no domínio doméstico. Para usar criteriosamente os fatores de influência disponíveis na política de IA, os formuladores de políticas devem primeiro entender a própria tecnologia e como ela irá reconfigurar a segurança nacional. O conceito da tríade da IA é uma estrutura para fazer isso.
Introdução
Uma única frase pode resumir as complexidades da inteligência artificial moderna: sistemas de aprendizado de máquina usam poder computacional para executar algoritmos que aprendem com dados. Tudo o que os formuladores de políticas de segurança nacional realmente precisam saber sobre uma tecnologia que parece ao mesmo tempo poderosa, misteriosa e na moda é capturado nessas 15 palavras.
A IA importa. Em casa, ela já é fundamental para o dia a dia, sonorizada por Alexa e Siri e metida dentro de telefones e relógios inteligentes. Na ciência, ela contribui para grandes avanços, desde o diagnóstico de doenças até o auxílio na descoberta de medicamentos e a modelagem do clima. Nos negócios, ela molda a competitividade econômica das nações e altera a forma como trilhões de dólares circulam pelos mercados globais. Na segurança nacional, ela reforça a logística e a análise de inteligência e – com visões de armas autônomas letais, guerra de drones e ataques cibernéticos autoguiados – parece prestes a fazer muito mais.
A amplitude da tecnologia é a razão pela qual a articulação da IA numa única frase é tão importante e os conceitos mencionados nela são tão cruciais. Se os formuladores de políticas não entenderem a IA, eles serão uma audiência passiva para os pioneiros tecnológicos avançando em posição de ataque, lentos para reconhecer o que a IA pode fazer pelas questões com as quais eles se importam. O que talvez seja pior, os formuladores de políticas que não entendem a IA não irão reconhecer o que a tecnologia ainda não pode fazer, apesar da sua badalação. Irão ignorar as atuais falhas estruturais da IA, como a falta de transparência e o potencial de vieses insidiosos – desafios que devem ser mitigados com soluções técnicas e políticas.
A definição concisa de IA primeiro especifica um paradigma para a IA moderna: o aprendizado de máquina. O aprendizado de máquina contrasta diretamente com o paradigma dominante da era anterior, os sistemas especialistas, que se concentravam na codificação formal do conhecimento humano de uma maneira como um computador pudesse processar. Por exemplo, o programa de computador da IBM, DeepBlue, baseou-se fortemente em informações fornecidas antecipadamente pelos grão-mestres do xadrez para derrotar o campeão mundial de xadrez Garry Kasparov em 1997. No aprendizado de máquina, os desenvolvedores de IA rejeitam instruções diretas em favor de um sistema que pode aprender por conta própria. Este artigo enfoca o paradigma dominante de aprendizado de máquina conhecido como aprendizado profundo, explicado com mais detalhes na próxima seção.
Três componentes fazem o aprendizado profundo acontecer: dados, algoritmos e poder computacional. Juntos, denomino esses componentes a tríade da IA. Os cientistas da computação há muito usam essa divisão tripartite para estudar o aprendizado de máquina, e eu argumento que ela oferece uma estrutura para entender o poder do aprendizado de máquina e o que ele significa para políticas.
Os elementos da tríade da IA funcionam em combinação para alcançar resultados impressionantes. Por exemplo, a OpenAI, um importante laboratório de pesquisa de IA, treinou um sistema de geração de texto, conhecido como GPT-3, para escrever parágrafos inteiros em resposta a um determinado pedido e para executar outras tarefas linguísticas. Os engenheiros reuniram quase um trilhão de palavras, que filtraram para cerca de 540 GB de escrita humana. Eles então desenvolveram um algoritmo inteligente com cerca de 175 bilhões de parâmetros aprendidos capazes de prever qual palavra viria a seguir em uma frase com base nos padrões dos dados coletados; em essência, o algoritmo aprendeu a imitar a escrita que viu. Os engenheiros deixaram o GPT-3 solto em computadores de alto desempenho por dias, realizando quatrilhões de cálculos enquanto refinava sua própria capacidade de imitar a linguagem humana.
A combinação de dados, algoritmos e poder computacional do GPT-3 produziu um avanço. O sistema escreveu um texto que 88% dos leitores consideraram convincentemente humano. Talvez o mais impressionante tenha sido a capacidade do GPT-3 de imitar o pedido feito a ele, desde a continuação de uma reportagem até a escrita da próxima estrofe de um poema ao estilo de um determinado poeta[^1].
O GPT-3 é uma em uma longa linha de inovações do aprendizado de máquina. O ritmo dos avanços e a relevância do aprendizado de máquina para a segurança nacional não mostram sinais de diminuir. Os formuladores de políticas precisam de uma compreensão mais profunda dos três componentes do aprendizado de máquina e de por que eles são tão importantes.
A Tríade da IA
Algoritmos
Um algoritmo é uma série de instruções para processar informações. As crianças nas escolas, por exemplo, aprendem o algoritmo PEMDAS para a ordem das operações na resolução de problemas de matemática: parênteses, expoentes, multiplicação/divisão, adição/subtração. Quando recebem uma informação – como o problema 7+5(1+3) –, o algoritmo lhes diz explicitamente como processá-la: primeiro some um e três entre os parênteses, depois pegue o quatro resultante e multiplique-o pelo cinco próximo a ele e, finalmente, some o 20 resultante ao sete.
Outro algoritmo, que funciona da esquerda para a direita e ignora a ordem das operações, processa a informação de maneira diferente: somando sete a cinco, multiplicando por um e depois somando três. Ele produz uma resposta diferente (e incorreta).
Da mesma forma, os programadores de computador emitem instruções diretas — algoritmos — para seus sistemas sobre como processar informações. Esses algoritmos geralmente contêm lógica condicional — se isto, então aquilo —, especificando que um programa deve fazer uma coisa com um conjunto de informações, mas algo diferente com um conjunto diferente de informações. Durante décadas, engenheiros construíram programas de IA com um tipo de design parecido. Como mencionado, a derrota do campeão de xadrez Garry Kasparov pelo DeepBlue foi possibilitada por uma série detalhada de instruções diretas selecionadas de grão-mestres que orientou o modo de jogar desse programa na partida do torneio.
O aprendizado de máquina é diferente. Os algoritmos de aprendizado de máquina não aplicam estratégias ou direcionamentos explícitos fornecidos por humanos. Em vez disso, esses algoritmos derivam seus próprios insights de conjuntos de dados e usam esses insights como base para a operação. Para fazer isso, os sistemas de aprendizado de máquina geralmente implementam aprendizado profundo ou redes neurais, cujos detalhes técnicos não são importantes para este artigo [^2]. Usando essas redes, um algoritmo de aprendizado de máquina pode descobrir o sistema PEMDAS estudando resmas de equações resolvidas e investigando de trás para a frente para encontrar as regras [^3].
O aprendizado de máquina é capaz de fazer mais do que apenas engenharia reversa de regras. É capaz de resolver problemas muito menos estruturados e bem-definidos. Considere uma analogia de ensinar um robô a brincar com Legos. Em uma abordagem ao treinamento do robô, um humano fornece exatamente os Legos necessários para construir uma determinada estrutura e instruções de montagem passo a passo. Um robô com bastante destreza física (o que não é pouca coisa, mas é irrelevante neste contexto) será capaz de montar as peças; da mesma forma, programas de software tradicionais podem também executar certas instruções.
Nessa abordagem, o humano é o arquiteto e o robô, o construtor. Caso lhe peçamos para construir algo novo com peças limitadas e sem instruções, o robô provavelmente nos deixará desapontados, assim como muitos tipos tradicionais de IA falharam ao lhes pedirem para realizar tarefas complexas ou se adaptar a situações imprevistas. O robô foi programado para seguir orientações dadas por humanos e não pode ter sucesso sem elas.
Em uma diferente abordagem à construção com Lego, o robô é tanto o arquiteto quanto o construtor. O humano, enquanto isso, oferece apenas avaliação e feedback, fornecendo alguns exemplos de estruturas anteriores bem-sucedidas e fracassadas, mas muito pouca direção durante o processo. Por meio de tentativa e erro, o robô tentará várias abordagens, obtendo feedback do humano a cada vez e aprendendo iterativamente quais tipos de estruturas auferem elogios. O robô acabará aprendendo a construir novas estruturas sem instruções ou designs predefinidos. Essa segunda abordagem ao desenvolvimento de habilidades com Legos provavelmente levará mais tempo do que aquela baseada em seguir instruções, mas também produzirá um robô muito mais capaz e versátil — e criações de Lego muito mais criativas.
No entanto, essa criatividade tem um preço. Na primeira abordagem, o robô atuará de forma totalmente compreensível para o ser humano, executando comandos humanos. Na segunda abordagem, o robô ganha a liberdade de projetar e construir, mas não consegue explicar por que faz as escolhas de design que faz. O robô pode consistentemente fazer belas criações de Lego, mas não terá a capacidade de explicar seu próprio raciocínio passo a passo. Essa incapacidade de explicar é um dos aspectos mais desafiadores dos atuais sistemas de aprendizado de máquina. Embora talvez insignificantes para estruturas de Lego, a falta de explicabilidade traz à tona questões legais e éticas em outras áreas.
Esse exemplo fornece alguma intuição de como os algoritmos de aprendizado de máquina obtêm poder a partir de dados e feedback em vez de comandos explícitos, bem como algumas das limitações dessa abordagem. Observar as amplas classes de algoritmos de aprendizado de máquina pode nos permitir ir ainda mais fundo. Essas três abordagens são conhecidas como aprendizado supervisionado, aprendizado não supervisionado e aprendizado por reforço; redes neurais são frequentemente usadas para implementar todos os três tipos de algoritmos.
Um algoritmo de aprendizado supervisionado deriva padrões de dados bem organizados geralmente fornecidos por humanos. Uma vez desenvolvidas, o sistema pode implementar essas capacidades de reconhecimento de padrões em novas situações. Por exemplo, em uma aplicação comercial, engenheiros de aprendizado de máquina podem fornecer a um algoritmo de reconhecimento de padrões dados sobre milhares de vendas de carros nos Estados Unidos, incluindo marca, modelo, ano e condição de cada carro vendido, além de informações sobre características adicionais. Esses dados servem de base para a construção de capacidades de reconhecimento de padrões.
Em um sistema de aprendizado supervisionado, o algoritmo também recebe o preço de venda completo de todas essas vendas. Esse preço reflete o quanto os humanos valorizam carros com diferentes características. O algoritmo então determina qual ele acha que é a relação entre várias características do carro e a quantia que o cliente acabou pagando. Ao fazer isso, ele deriva tanto grandes quanto pequenos insights, como que carros mais novos com uma menor quilometragem provavelmente serão vendidos por mais e que recursos extras, como um teto solar, aumentam o valor de um carro; isso é conhecido como “treinar” o sistema.
Com esses insights reunidos, o algoritmo de aprendizado supervisionado está pronto para tentar fazer uma tarefa chamada “inferência”. Nesse caso, a inferência envolve fazer uma previsão sobre o futuro preço de venda de um carro ainda no mercado, dadas as informações conhecidas sobre o carro. O sistema provavelmente será muito bom em inferência se for bem treinado; se tiver recebido dados de treinamento ruins ou tiver sido mal calibrado, é provável que falhe. Em geral, algoritmos de aprendizado supervisionado bem treinados provam ser hábeis em prever uma ampla variedade de resultados, desde filtros de spam até mercados imobiliários, e isso inclui até mesmo previsões como o valor de revenda de um bom vinho[^4].
O que o aprendizado supervisionado poderia fazer pela segurança nacional? Talvez os mesmos tipos de algoritmos capazes de prever vendas de carros ou identificar o câncer de pulmão em tomografias computadorizadas sejam capazes de prever ataques terroristas ou ajudar a classificar um grande número de fotos de satélite de serviços de inteligência. As forças armadas dos Estados Unidos fizeram um investimento substancial nessa área em 2017, quando anunciaram a criação da Algorithmic Warfare Cross-Functional Team [Equipe Transfuncional Bélica Algorítmica] (mais conhecida como o Projeto Perito). Uma das primeiras tarefas da equipe foi aplicar o aprendizado supervisionado a fotos e vídeos coletados por drones dos EUA em todo o mundo; outra tarefa foi usar o aprendizado supervisionado para prever melhor as falhas de equipamentos em helicópteros de operações especiais. O então Secretário Adjunto de Defesa, Robert Work, deixou claro que via esses esforços como a primeira de muitas incursões militares no aprendizado de máquina, escrevendo que o Departamento de Defesa “deve integrar a inteligência artificial e o aprendizado de máquina de maneira mais eficaz entre as operações para manter vantagens sobre adversários e concorrentes cada vez mais capazes [^5]”.
Apesar de todo o seu poder, os algoritmos de aprendizado supervisionado ainda são limitados. Eles dependem de termos a “resposta certa” para os dados fornecidos ao algoritmo, como preços de vendas de carros passadas, exemplos de fotos de serviços de inteligência analisadas por humanos e registros de manutenção de helicópteros. Sem essas respostas certas com que aprender, os sistemas de aprendizado supervisionado não podem derivar os padrões necessários para fazer previsões para novos dados. Se algo está ausente dos dados de treinamento, um sistema de aprendizado supervisionado nunca o conhecerá.
É aqui que entram os algoritmos de aprendizado não supervisionado. O aprendizado não supervisionado prospera quando não há um conjunto de dados arrumadinho e bem organizado com a resposta certa fornecida para cada ponto de dados. Esses algoritmos podem ajudar a desemaranhar redes complexas de dados e fornecer alguma estrutura.
Por exemplo, uma das tarefas mais comuns de publicitários e políticos é conhecer o seu mercado. Embora possam coletar dados, seus clientes ou eleitores representam um vasto grupo, repleto de padrões, mas também de contradições e complexidades. Fazer sentido do mercado pode significar segmentar ou agrupar esse grande grupo em uma série de grupos menores que fazem mais sentido. Com esses grupos menores identificados, publicitários e políticos podem direcionar e adaptar suas mensagens de forma mais eficaz.
Algumas formas de agrupar esses dados são óbvias, como filtrar com base em idade, gênero ou etnia. Outros agrupamentos são menos aparentes, mas o aprendizado não supervisionado pode ajudar a identificá-los. Grande parte do espaço da publicidade on-line se baseia em agrupamentos algorítmicos mais sutis do que idade, gênero ou etnia, ou mesmo uma combinação de todos os três. Em vez disso, os publicitários buscam informações que incluam o histórico on-line, compras e interesses expressos para alimentar algoritmos de aprendizado não supervisionado. Os sistemas produzem agrupamentos menores e mais precisos, com frequência agrupando usuários com base em combinações de interesses e características pessoais. Os publicitários podem, então, adaptar seu marketing ao público que for mais receptivo a ele.
O que funciona para publicitários também pode funcionar para propagandistas. O negócio de gerar e distribuir desinformação, infelizmente, é uma parte intrínseca da geopolítica moderna, e a IA suscita preocupações significativas com respeito a isso. A campanha russa de interferência nas eleições de 2016 demonstrou o que acontece quando hackers e propagandistas trabalham juntos. Em alguns aspectos, algoritmos de agrupamento moldaram o terreno sobre o qual suas operações de informação se desdobraram. O algoritmo de direcionamento de anúncios do Facebook, usado pelos russos para implantar os anúncios que eles compraram, depende em parte do agrupamento de usuários, assim como os algoritmos que ajudam as postagens a viralizar[^6]. Resta ver como o aprendizado não supervisionado permitirá o direcionamento de futuros esforços de propaganda.
Nem o aprendizado supervisionado, nem o não supervisionado se destacam na avaliação e no planejamento estratégicos de longo prazo que são essenciais para a segurança nacional. Um terceiro tipo de algoritmos, o aprendizado por reforço, pode ajudar. Esses algoritmos são especialmente poderosos em áreas com um ambiente claramente definido, como jogos de tabuleiro ou videogames. Por tentativa e erro, eles tomam decisões e recebem feedback do ambiente. Um algoritmo de aprendizado por reforço, por exemplo, pode receber pontos por encontrar movimentos que levem à vitória em um jogo, mas perder pontos por movimentos que resultem em derrota. Conforme buscam maximizar recompensas, os algoritmos melhoram ao longo do tempo na navegação pelo ambiente e na execução de tarefas, às vezes até superando a capacidade humana.
A DeepMind, um laboratório de pesquisa da Google que é um dos principais nesta área, implementou o aprendizado por reforço com grande sucesso em seu programa AlphaZero, que era capaz de derrotar todo humano e computador nos jogos de tabuleiro Go, xadrez e shogi[^7]. Seu sucesso no Go, um antigo jogo de tabuleiro originário da Ásia, é notável pela complexidade do jogo: há mais posições possíveis no tabuleiro do Go do que átomos no universo. De fato, há mais posições possíveis no tabuleiro do Go do que o total de átomos se cada átomo no universo contivesse um universo de átomos dentro de si mesmo[^8]. Com tantas possibilidades, calcular um caminho para a vitória é impossível, mesmo para um computador; os jogadores devem usar a intuição para vencer. A natureza adaptativa do aprendizado por reforço provou ser melhor nesse tipo de intuição estratégica no tabuleiro do Go do que o aprendizado supervisionado ou não supervisionado — ou, por sinal, do que a inteligência humana.
Algoritmos de aprendizado por reforço também têm aplicações na segurança nacional. Depois de criar o AlphaZero, a DeepMind usou o aprendizado por reforço como parte fundamental de um programa chamado AlphaStar, alcançando o status de grão-mestre no videogame de estratégia Starcraft II. O sucesso do algoritmo foi notável, pois o Starcraft requer mais decisões do que o Go, se desenrola em tempo real em vez de turnos distintos e oferece apenas informações imperfeitas — os jogadores não enxergam todas as jogadas de seus oponentes e os oponentes podem enganar uns aos outros ativamente. Por essas razões, o Starcraft é um representante muito mais próximo da estratégia militar do que o Go. O sucesso do AlphaStar sinaliza a crescente relevância estratégica do aprendizado por reforço[^9].
Outra notável área de sucesso do aprendizado por reforço é a robótica: o algoritmo toma uma decisão, o robô a executa e os sensores do robô detectam como o ambiente responde e se essa resposta foi boa ou ruim. Por esse motivo, o aprendizado por reforço aparece em algumas tecnologias de carros autônomos. Ele também poderia alimentar veículos ou aeronaves militares autônomos capazes de atacar em conjunto alvos em alta velocidade ou usar táticas complexas em tempo real. Em ambientes de batalha com capacidades de comando e controle degradadas ou inexistentes, algoritmos de aprendizado por reforço capazes de tomar decisões por conta própria poderiam ser essenciais.
Dados
"Os dados são o novo petróleo" — ou assim nos dizem. A frase se tornou clichê, mencionada em todo lugar, desde o marketing corporativo até os debates presidenciais. É fácil ver por que os observadores fazem essa comparação. Como mostra a síntese anterior sobre os algoritmos, dados – informações sobre a área de foco do sistema de aprendizado de máquina, como vendas de carros ou fotos de drones – são cruciais, especialmente para o aprendizado supervisionado. Sem eles, não haveria padrões a serem reconhecidos e muitos algoritmos seriam muito menos eficazes, se é que funcionariam. Um estudo fundamental em 2001 sugeriu que a quantidade de dados de treinamento disponíveis importava mais do que o algoritmo usado [^10].
A quantidade de dados de treinamento tem um grande papel na determinação da eficácia do sistema de aprendizado de máquina. Por exemplo, no caso de vendas de carros, se os dados sobre os futuros preços de vendas de carros fornecidos ao algoritmo de aprendizado supervisionado forem mínimos, eles podem ser dominados por casos atípicos; um carro no conjunto de dados pode ter sido vendido por um preço mais baixo porque foi uma transação entre amigos ou porque o carro tinha um defeito óbvio para o comprador, mas não capturado nos dados. Esses casos atípicos se equilibram em conjuntos de dados maiores e diminuem em relevância.
Tudo o mais sendo igual, conjuntos de dados maiores e mais representativos capturam melhor o mundo real. Um pequeno conjunto de dados de vendas de carros pode não incluir nenhuma venda de fabricantes de automóveis importantes, porém de nicho, como a Ferrari, já que muito mais Toyotas e Chevrolets são vendidos. Nesse caso, quando o sistema de aprendizado de máquina prevê o preço de venda de um carro de luxo, é mais provável que ele falhe devido à falta de dados de treinamento relevantes. Assim, no aprendizado de máquina como em outros tipos de estatísticas, um tamanho de amostra mais completo e mais amplo geralmente é melhor.
No entanto, a própria coleta de dados pode apresentar um desafio. Por esse motivo, entre outros, empresas com acesso direto a grandes quantidades de dados de consumidores, como o Facebook, a Google e a Amazon, são líderes de mercado. Uma vez coletados, os dados devem ser organizados, armazenados e disponibilizados, o que é um desafio em termos técnicos e organizacionais. Entraves legais e regulatórios, especialmente em relação à privacidade, também restringem o que as organizações podem fazer durante o processo de montagem de um grande conjunto de dados.
Algo crucial é que não apenas a quantidade de dados é importante, mas também a relevância desses dados para o problema em questão. Uma quantidade infinita de dados sobre vendas de bicicletas, por exemplo, não é dada a fornecer muito valor na derivação de padrões sobre preços de carros. Aqueles que projetam e constroem sistemas de aprendizado de máquina precisam de um problema bem-definido e dados relevantes para esse problema. Essa demanda por dados específicos torna difícil julgar o valor dos dados num nível abstrato, especialmente entre setores e países. Empresas chinesas, por exemplo, podem ter insights detalhados sobre entregas de alimentos por aplicativos em seu país, mas é improvável que esses dados melhorem a competitividade militar chinesa.
Um componente final dos dados merece discussão, especialmente para sistemas de aprendizado supervisionado: a precisão da resposta correta nos dados de treinamento. É comum que os dados de treinamento exibam algum tipo de viés. Quando isso ocorre, o sistema de aprendizado de máquina pode absorver esse viés da mesma forma como aprende outros padrões nos dados de treinamento. Por exemplo, um sistema planejado da Amazon para escanear currículos foi descartado por discriminar mulheres, provavelmente porque os dados de treinamento fornecidos ao sistema – decisões de contratação anteriores – exibiam um viés contra as mulheres[^11].
Dados enviesados podem ampliar o problema de explicabilidade supracitado: quando os sistemas de aprendizado de máquina herdam vieses de seus dados de treinamento, eles podem tomar decisões enviesadas sem explicar o porquê. Um sistema de aprendizado de máquina pode, assim, pegar os dados enviesados e apresentá-los como imparciais. Um pesquisador e empreendedor chamou o aprendizado de máquina de “lavagem de dinheiro para vieses”, já que saídas algorítmicas defeituosas tendem a ser vistas como justas e objetivas[^12]. Esse problema pode fazer com que os sistemas de aprendizado de máquina falhem de maneiras particularmente insidiosas, ainda que não intencionais. Por exemplo, se um sistema de aprendizado de máquina projetado para ajudar a detectar terroristas desenvolvesse um viés contra uma determinada etnia, ele poderia recomendar sistematicamente mais escrutínio para pessoas inocentes dessa etnia, enquanto ignora suspeitos de outras etnias – tudo sem nunca dizer a seus operadores humanos que a etnia era um fator-chave em suas recomendações.
Poder computacional
Em muitas partes do mundo moderno, computadores são commodities. Ao passo que os fabricantes de computadores de mesa e notebooks costumavam competir em termos da velocidade e potência de seus processadores e placas de vídeo, a maioria dos usuários de computadores modernos — com a possível exceção dos mineradores de criptomoedas e jogadores intensos de videogame — não têm ideia de que tipo de chips de computador usam todos os dias.
No entanto, no contexto da IA, ignorar o poder computacional (ou o "compute” para a comunidade de aprendizado de máquina) é cometer um erro enorme. Amplamente negligenciado pela mídia de notícias e em outras narrativas populares, o poder computacional sustentou grande parte do progresso moderno da IA. Rich Sutton, amplamente considerado um dos fundadores da IA moderna, chamou a centralidade do poder computacional de “a amarga lição” do aprendizado de máquina, e uma lição que os pesquisadores demoraram a aprender [^13]. Ele afirmou que a preeminência do poder computacional é desconfortável porque reduz o papel dos humanos na construção da IA. Sutton argumenta que grande parte do progresso da IA foi possível não ao tornar os sistemas mais semelhantes aos humanos ou transmitir mais conhecimento humano aos computadores, mas ao dar aos sistemas de aprendizado de máquina maior poder de processamento para aprender por conta própria. Nessa visão, a arquitetura de um algoritmo e os dados de conhecimento humano são simplesmente menos significativos do que o hardware que viabiliza o aprendizado de máquina. Se Sutton estiver certo, o poder computacional pode muito bem ser a parte mais importante da tríade.
De fato, amplas evidências mostram que o poder computacional está fortemente correlacionado com os avanços da IA. A OpenAI estudou como o poder computacional conduziu o progresso da IA de 2012 a 2018. A sua descoberta foi extraordinária: durante esse período, repleto de tremendas realizações da IA, a quantidade de poder computacional aplicado ao treinamento dos projetos de IA do mais alto escalão aumentou em um fator de 300.000[^14]. Para contextualizar isso, se a bateria de um celular durasse um dia em 2012 e aumentasse na mesma proporção, em 2018 essa bateria duraria mais de 800 anos [^15].
Esse poder de computador cada vez mais potente leva a avanços que seriam inacessíveis na sua ausência. Por exemplo, XD Huang, um dos principais pesquisadores em IA da Microsoft, acredita que a transição para unidades de processamento gráfico para executar melhor os cálculos de aprendizado de máquina foi “a verdadeira arma” que permitiu uma grande parte dos avanços da Microsoft. Alguns projetos, disse ele, levariam mais cinco anos para serem concluídos sem o aumento do poder computacional[^16].
Em outros casos, a quantidade de poder computacional fornecido a um sistema de aprendizado de máquina ajuda a determinar a potência desse sistema. Por exemplo, a OpenAI desenvolveu quatro versões do GPT-2, o precursor do sistema GPT-3 mencionado na introdução, que recebe um pedido do usuário e gera um texto em resposta. Essas quatro versões diferiam em seu número de parâmetros, com mais parâmetros exigindo mais poder computacional para treinar; os dados de treinamento e o design algorítmico geral continuaram sendo os mesmos para cada um. A diferença nos parâmetros alterou significativamente o desempenho. O maior sistema emergiu tão potente que a OpenAI atrasou seu lançamento público por meses devido a possíveis preocupações de segurança nacional, como operações de propaganda automatizadas. Na visão da OpenAI, a diferença no número de parâmetros significava a diferença entre um sistema divertido, impressionante e inofensivo e um tão potente que precisava ser mantido trancado até que seus perigos pudessem ser estudados – uma decisão controversa e incomum na comunidade de pesquisa de aprendizado de máquina, que tem uma forte preferência pela abertura [^17].
Três fatores levaram a esse tremendo aumento de poder computacional. Primeiro, há o ritmo contínuo da Lei de Moore (celebremente, o diretor executivo e cofundador da Intel, Gordon Moore, sugeriu que o poder de computação dobraria a cada 24 meses como resultado de melhorias na engenharia de processadores)[^18]. Mas mesmo a Lei de Moore preveria um aumento muito menor no poder computacional aplicado aos sistemas de IA que o que ocorreu nos últimos anos.
O segundo fator é o aumento da aplicação de computação paralelizada em chips de aprendizado de máquina. A paralelização permite que muitos chips de computador treinem um sistema de aprendizado de máquina exatamente ao mesmo tempo. Como uma orquestra tocando uma sinfonia, as tarefas envolvidas no treinamento são divididas em várias partes e feitas todas ao mesmo tempo. Embora a ideia de paralelização exista há anos, os sistemas modernos a levam a um grau extremo, com centenas de processadores trabalhando simultaneamente.
O terceiro fator é o aumento da eficiência dos chips de computador de aprendizado de máquina. Executar um algoritmo de aprendizado de máquina é diferente de executar uma planilha do Excel ou um navegador; conforme discutido, aquele usa redes neurais para aprender com os dados, enquanto estes executam instruções humanas diretas. Como resultado, os tipos de otimizações presentes em chips de computador e sistemas operacionais típicos não geram os mesmos ganhos de eficiência nos cálculos de aprendizado de máquina. No entanto, chips especializados podem ser construídos e adaptados para executar algoritmos de aprendizado de máquina com muito mais eficiência. De 2012 até hoje, ocorreram várias mudanças de paradigma no poder computacional do aprendizado de máquina, fazendo o setor mudar de processadores de compute comuns para unidades de processamento gráfico, e daí para chips especializados criados para eficiência no aprendizado de máquina.
Nenhum desses três fatores sai barato. Embora a Lei de Moore pareça estar preparada para continuar por mais alguns anos, a produção de novas fábricas de chips aumenta em custo e complexidade conforme problemas de engenharia de semicondutores ficam mais difíceis. A crescente paralelização das máquinas é uma dádiva, mas adquirir mais máquinas aumenta as despesas. O aumento da eficiência de chips customizados e especializados para o aprendizado de máquina viabilizou avanços significativos, mas requer grandes investimentos para projetar e construir novos hardwares. Conforme continua a ficar mais caro e complexo conseguir poder computacional, isso se torna cada vez mais um obstáculo para os pesquisadores de aprendizado de máquina e cada vez mais relevante para os formuladores de políticas de segurança nacional.
O que a tríade da IA significa para os formuladores de políticas
A tríade da IA é útil para desmistificar e entender a IA moderna, especialmente tendo em vista o ritmo acelerado de progresso e a complexidade dos sistemas de ponta. Ela pode ajudar a categorizar os avanços no aprendizado de máquina, diferenciando a engenhosidade algorítmica do intenso sucesso computacional.
Talvez ainda mais úteis sejam as maneiras como a tríade da IA pode estruturar e informar as decisões na política de segurança nacional. Longe de apenas dar sentido ao que está acontecendo, ela pode ajudar a desenvolver intuições sobre o que fazer a respeito disso. Cada parte da tríade se presta a diferentes fatores de influência, desafios e oportunidades na política. A importância política comparativa de cada parte tem implicações para a estratégia de segurança nacional; quando uma parte da tríade tem prioridade mais alta do que outras, decorrem prescrições políticas diferentes.
Em um mundo no qual os algoritmos reinam, talentos nas pesquisas e recursos para desenvolver esses algoritmos tornam-se proeminentes. A oferta atual desses talentos não pode satisfazer a demanda global. Como resultado, os formuladores de políticas em nível nacional devem encontrar maneiras de atrair talentos estrangeiross para o seu país, reter os talentos que chegam e desenvolver novos talentos[^19]. Os fatores de influência política resultantes são coisas como controles de vistos, estratégias industriais, reciclagem profissional e estruturas de certificação para habilidades em IA, além de investimentos educacionais para atender à escassez de professores de IA. Dada a centralidade do talento em IA para avanços algorítmicos, essas funções governamentais rotineiras podem ter implicações econômicas e de segurança nacional significativas. Embora aparentemente mundano, esse domínio é o terreno no qual a batalha de competição geopolítica na era da IA começará a ser travada.
No entanto, se forem os dados o que tem a mais alta prioridade, surgem diferentes fatores de influência política. Num paradigma de aprendizado de máquina conduzido por dados com curadoria humana, o prospecto de sistemas enviesados resultantes de conjuntos de dados enviesados cresce substancialmente. Assim, rastrear e medir o risco de viés torna-se mais importante quando os dados estão no centro da IA; especialistas no assunto devem ser consultados para entendermos as fontes potenciais de viés não intencional. Algumas ideias concretas, como um sistema semelhante à rotulagem nutricional para o aprendizado de máquina, também podem ajudar a fornecer clareza sobre os dados subjacentes nos quais os algoritmos foram treinados[^20]. Mesmo que os algoritmos permaneçam opacos e incapazes de explicar suas decisões, a transparência sobre os dados de treinamento usados e informações contidas nesse conjunto de dados podem aumentar a confiança nos sistemas.
Questões de privacidade aumentam em importância quanto mais os dados são importantes para a IA. Na medida em que existe tensão entre os direitos de privacidade dos usuários e o valor de seus dados no treinamento de sistemas de aprendizado de máquina, os governos devem gerir o equilíbrio. Terão que elaborar leis e regulamentos de privacidade que protejam as liberdades civis e os direitos dos indivíduos sem restringir indevidamente a inovação que o uso de seus dados para o treinamento pode viabilizar. Não é uma equação de soma zero, visto que pesquisas técnicas adicionais sobre sistemas de aprendizado de máquina que preservam a privacidade podem ajudar os algoritmos a aprender com os dados sem revelar informações sobre os indivíduos. Embora promissores, esses tipos de algoritmos compreendem uma fração comparativamente pequena da pesquisa atual de aprendizado de máquina e merecem financiamento adicional do governo. Os governos também poderiam exigir que os algoritmos de alta consequência – como aqueles relacionados a decisões de liberdade condicional, risco de crédito e cuidado médico – passem por um exame minucioso por reguladores tecnicamente informados antes de serem implementados.
Outras questões políticas surgirão se os dados forem essenciais para o progresso do aprendizado de máquina. O aumento da importância dos dados poderia provocar a aquisição e o armazenamento de conjuntos de dados cada vez maiores, criando considerações de segunda ordem de segurança cibernética e políticas de responsabilidade por violação de dados, visto que esses dados devem ser protegidos. O papel do governo como coletor e provedor de dados também surge mais plenamente neste mundo centrado em dados. Por exemplo, como o governo deve reunir conjuntos de dados para resolver seus problemas e quais procedimentos gorvernamentais precisam ser alterados para coletar e organizar esses dados? De modo mais geral, quais dos vastos estoques de dados do governo devem ser disponibilizados, como e para quem? Todas essas questões precisarão de uma formulação de políticas cuidadosa para serem abordadas.
O cenário final é aquele em que o poder computacional é de prioridade mais alta. Nesse caso, é essencial gerenciar o fluxo de poderosos chips de computador otimizados para cálculos de aprendizado de máquina. Os controles de exportação, portanto, surgem como um fator de influência política significativo, especialmente para os Estados Unidos e seus aliados, que atualmente desfrutam de uma vantagem na fabricação avançada de chips de computador. A China depende do acesso a empresas ocidentais para fotolitografia avançada e outros equipamentos de fabricação de semicondutores[^21]. Para a China, uma estratégia para desenvolver ainda mais sua indústria doméstica de chips de computador torna-se essencial para preservar a flexibilidade econômica e de segurança nacional na era da IA; por essa razão, entre outras, Pequim buscou agressivamente alternativas aos chips ocidentais[^22]. A eficácia do controle de exportação depende de que a tecnologia negada às nações adversárias supere aquela que essas nações podem produzir ou obter. Embora aberta por enquanto, a janela para o uso de tais controles contra a China provavelmente está começando a se fechar.
De maneira mais geral, o custo do poder computacional se agiganta. Se o poder computacional se tornar muito caro para os pesquisadores acadêmicos o empregarem, a pesquisa será transferida para o setor privado, com possíveis efeitos negativos na inovação de longo prazo. O governo poderia ter um papel em tornar o poder computacional acessível a pesquisadores acadêmicos para que eles possam continuar a treinar novos especialistas e contribuir para o progresso da IA[^23].
Então, qual parte da tríade os formuladores de políticas deveriam priorizar? Depende muito do que acontece a portas fechadas nos laboratórios de pesquisa. No geral, todavia, os dados parecem um tanto supervalorizados e alardeados na era moderna, especialmente com o surgimento de inovações tecnológicas específicas, como a geração de dados representativos de fontes artificiais ou o desenvolvimento de algoritmos que não dependem de dados de treinamento curados por humanos. Embora as preocupações com privacidade e agregação de dados sejam reais, essas preocupações provavelmente são independentes da pesquisa de aprendizado de máquina verdadeiramente de ponta. Ao passo que, uma década atrás, os dados pareciam centrais — o cientista-chefe da Google, Peter Norvig, disse: “Não temos algoritmos melhores do que ninguém; nós apenas temos mais dados” —, eles diminuíram um pouco em importância comparativamente, conforme o poder dos algoritmos e da computação se tornou mais aparente[^24].
Algoritmos parecem ser avaliados de forma mais justa, mesmo que apenas na teoria. Os formuladores de políticas reconhecem cada vez mais a importância de inovações nessa área, mas nos Estados Unidos, atrair o talento necessário para desenvolver algoritmos não se tornou uma prioridade nacional muito grande. Em contraste, aliados como o Reino Unido, o Canadá e a França tentam nutrir suas indústrias domésticas de IA e atrair novos pesquisadores do exterior[^25]. A China também desenvolveu agressivamente seu programa Mil Talentos para recrutar as melhores mentes em IA e pesquisadores em outras áreas[^26]. Os Estados Unidos, que educam grande parte dos talentos em IA do mundo em suas universidades, poderiam fazer muito mais para aproveitar essa vantagem de jogar em casa antes que ela escape.
Embora pareça haver um alarde com relação ao dados, e se fale da boca para fora sobre algoritmos, mas nenhuma atitude política importante seja tomada nos Estados Unidos com relação a eles, o poder computacional parece sofrer de um déficit de valorização e de alarde em quase todos os lugares. Avanços computacionais são difíceis de explicar e ainda mais difíceis de visualizar, o que talvez explique a omissão. Dito isso, como mostra a pesquisa da OpenAI, o crescimento exponencial do poder computacional aplicado aos sistemas de aprendizado de máquina nos últimos anos levou a uma tremenda quantidade de progresso observado. A observação mais ampla de Sutton sobre esse padrão também é impressionante[^27]. A explosão de start-ups do Vale do Silício trabalhando em computação avançada para IA sugere que ainda mais progresso nessa área está por vir, com efeitos potencialmente significativos para o futuro do aprendizado de máquina, sistemas de segurança nacional que dependem dele e as escolhas disponíveis para os formuladores de políticas.
Conclusão
Na prática, determinar o componente mais importante da tríade da IA é uma questão acadêmica, e não política. Nações competirão em todas as três áreas, embora a prioridade relativa vá mudar à medida que diferentes partes da tríade avançarem em diferentes taxas. Assim, os formuladores de políticas devem elaborar uma estratégia de IA transetorial que aborde dados, algoritmos e computação, avaliando simultaneamente qual parte da tríade – e, assim, quais fatores de influência política – é mais significativa.
Os formuladores de políticas terão que fazer esse julgamento de maneira prospectiva, cientes de que suas escolhas acarretam consequências de curto e longo prazo. Por exemplo, uma decisão de colocar controles de exportação em chips de computador pode fornecer um benefício por vários anos, mas arriscar fazer a China desenvolver sua própria indústria de fabricação de chips desinibida pela concorrência ocidental — provavelmente um resultado mais negativo que positivo a longo prazo para os formuladores de políticas dos EUA. Por outro lado, uma decisão de tentar atrair e desenvolver talentos no desenvolvimento de algoritmos pode exigir uma grande medida de esforço imediato e não dar dividendos por mais de uma década.
Discernir essas várias ramificações não será fácil. Dependerá de casar imperativos geopolíticos com o presente e o futuro de algoritmos, dados e computação. Assim como em muitos outros assuntos, fazer uma boa política de IA começa pela desmistificação da tecnologia subjacente.
Notas
[^1]: Brown, Tom B., Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan et al., "Language Models are Few-Shot Learners," arXiv preprint arXiv:2005.14165 (2020), https://arxiv.org/abs/2005.14165.
[^2]: Para mais sobre redes neurais, veja Ben Buchanan and Taylor Miller, Machine Learning for Policymakers: What It Is and Why It Matters (Belfer Center for Science and International Affairs, 2017), https://www.belfercenter.org/sites/default/files/files/publication/MachineLearningforPolicymakers.pdf.
[^3]: Silviu-Marian Udrescu and Max Tegmark, “AI Feynman: A Physics-Inspired Method for Symbolic Regression,” arXiv [physics.comp-Ph] (May 27, 2019), http://arxiv.org/abs/1905.11481.
[^4]: Michelle Yeo, Tristan Fletcher, and John Shawe-Taylor, “Machine Learning in Fine Wine Price Prediction,” Journal of Wine Economics 10, no. 2 (2015): 151–72.
[^5]: Cheryl Pellerin, “Project Maven to Deploy Computer Algorithms to War Zone by Year’s End,” U.S. Department of Defense, July 21, 2017, https://www.defense.gov/Explore/News/Article/ Article/1254719/project-maven-to-deploy-computer-algorithms-to-war-zone-by-years-end/.
[^6]: Para a discussão definitiva sobre a operação russa, veja Robert S. Mueller III, “Report On The Investigation Into Russian Interference In The 2016 Presidential Election” (Department of Justice, March 2019), https://www.justice.gov/storage/report.pdf. Para mais sobre algoritmos do Facebook em geral, veja Jeff Horwitz and Deepa Seetharaman, “Facebook Knows It Encourages Division. Top Executives Nixed Solutions,” Wall Street Journal, May 26, 2020, https://www.wsj.com/articles/facebook-knows-itencourages-division-top-executives-nixed-solutions-11590507499.
[^7]: David Silver et al., “A General Reinforcement Learning Algorithm That Masters Chess, Shogi, and Go through Self-Play,” Science 362, no. 6419 (December 7, 2018): 1140–44.
[^8]: John Tromp and Gunnar Farnebäck, “Combinatorics of Go,” em Computers and Games (Springer Berlin Heidelberg, 2007), 84–99.
[^9]: Oriol Vinyals et al., “Grandmaster Level in StarCraft II Using Multi-Agent Reinforcement Learning,” Nature 575, no. 7782 (November 2019): 350–54.
[^10]: Michele Banko and Eric Brill, Scaling to Very Very Large Corpora for Natural Language Disambiguation, Proceedings of the 39th Annual Meeting on Association for Computational Linguistics (Association for Computational Linguistics, 2001).
[^11]: Jeffrey Dastin, “Amazon Scraps Secret AI Recruiting Tool That Showed Bias against Women,” Reuters, October 10, 2018, https://www.reuters.com/article/us-amazon-com-jobs-automation-insightidUSKCN1MK08G.
[^12]: Maciej Cegłowski, “The Moral Economy of Tech” (Society for the Advancement of Socio-Economics, June 26, 2016), http://idlewords.com/talks/sase_panel.htm.
[^13]: Rich Sutton, “The Bitter Lesson,” Incomplete Ideas, March 13, 2019, http://www.incompleteideas.net/IncIdeas/BitterLesson.html.
[^14]: A quantia gasta em recursos computacionais também aumentou durante esse tempo, fazendo surgir a questão sobre se, devido à importância e ao preço de recursos computacionais de ponta, avanços futuros no aprendizado de máquina são propensos a ocorrer somente em laboratórios bem financiados. Um pesquisador acadêmico escreveu: "O acesso a recursos computacionais é péssimo até em bons lugares." Eric Jonas, Twitter, May 27, 2020, https://twitter.com/stochastician/status/1265711669050839041.
[^15]: Dario Amodei and Danny Hernandez, “AI and Compute,” May 16, 2018, https://openai.com/blog/ai-and-compute/.
[^16]: Cade Metz, “How AI Is Shaking Up the Chip Market,” Wired, October 28, 2016, https://www.wired.com/2016/10/ai-changing-market-computer-chips/. Para mais sobre diferentes tipos de chips de IA, veja Saif M. Khan and Alexander Mann, “AI Chips: What They Are and Why They Matter,” Georgetown University Center for Security and Emerging Technology, April 2020, https://cset.georgetown.edu/wp-content/uploads/AI-Chips%E2%80%94What-They-Are-and-Why-They-Matter.pdf.
[^17]: Irene Solaiman et al., “Release Strategies and the Social Impacts of Language Models,” arXiv [cs.CL] (August 24, 2019), http://arxiv.org/abs/1908.09203.
[^18]: R. R. Schaller, “Moore’s Law: Past, Present and Future,” IEEE Spectrum 34, no. 6 (June 1997): 52–59.
[^19]: Remco Zwetsloot et al., “Keeping Top AI Talent in the United States,” Georgetown University Center for Security and Emerging Technology, December 2019, https://cset.georgetown.edu/wp-content/ uploads/Keeping-Top-AI-Talent-in-the-United-States.pdf; Remco Zwetsloot, “China’s Approach to Tech Talent Competition: Policies, Results, and the Developing Global Response,” Georgetown University Center for Security and Emerging Technology, April 2020, https://cset.georgetown.edu/wp-content/uploads/Zwetsloot%E2%80%94Chinas-Approach-to-Tech-Talent.pdf.
[^20]: Margaret Mitchell et al., “Model Cards for Model Reporting,” arXiv [cs.LG] (October 5, 2018), http://arxiv.org/abs/1810.03993.
[^21]: Saif M. Khan, “Maintaining the AI Chip Competitive Advantage of the United States and Its Allies,” Georgetown University Center for Security and Emerging Technology, December 2019, https://cset.georgetown.edu/wp-content/uploads/CSET-Maintaining-the-AI-Chip-Competitive-Advantage-of-the-United-States-and-its-Allies-20191206.pdf.
[^22]: Lorand Laskai, artigo por vir. De modo mais geral, a China tem patrocinado pesquisas sobre diferentes arquiteturas de IA, como as que são inspiradas mais diretamente no cérebro humano. William Hannas and Huey Meei Chang, “China’s Access to Foreign AI Technology: An Assessment,” Georgetown University Center for Security and Emerging Technology, September 2019, https://cset.georgetown.edu/wp-content/uploads/CSET-Chinas-Access-to-Foreign-AI-Technology-2.pdf.
[^23]: Para discussões sobre essa ideia, veja Amodei and Hernandez, “AI and Compute.” Danny Hernandez, “AI and Efficiency,” OpenAI, https://openai.com/blog/ai-and-efficiency/.
[^24]: Scott Cleland, “Google’s ‘Infringenovation’ Secrets,” Forbes, October 3, 2011, https://www.forbes.com/sites/scottcleland/2011/10/03/googles-infringenovation-secrets/#7bff9df030a6.
[^25]: Roxanne Heston and Zachary Arnold, “Strengthening the US AI Workforce,” Georgetown University Center for Security and Emerging Technology, September 2019, https://cset.georgetown.edu/wp-content/uploads/CSET_US_AI_Workforce.pdf.
[^26]: Zwetsloot, “China’s Approach to Tech Talent Competition: Policies, Results, and the Developing Global Response.”
[^27]: Veja o adendo de Amodei and Hernandez, “AI and Compute”.
Este trabalho está licenciado sob uma Licença Creative Commons Atribuição-Não Comercial 4.0 Internacional.
Publicado originalmente em agosto de 2020 aqui.
Autor: Ben Buchanan
Center for Security and Emergin Technology - CSET e Georgetown’s Walsh School of Foreign Service.
Tradução: Luan Marques
Revisão: