O Altruísmo Eficaz (AE) é um projeto contínuo para encontrar as melhores maneiras de fazer o bem e colocá-las em prática. Esta série de artigos apresentará algumas das principais ferramentas de pensamento por trás do altruísmo eficaz, compartilhará alguns dos argumentos sobre quais problemas globais são mais urgentes e o ajudará a refletir sobre como você pode contribuir para solucioná-los.
O manual está estruturado em oito capítulos, com exercícios para ajudá-lo a refletir sobre sua leitura.
Se você gostaria de discutir essas ideias com outras pessoas interessadas em melhorar a vida de outras pessoas, talvez possa se interessar em nosso programa online e gratuito de Introdução ao Altruísmo Eficaz, onde debatemos esses oito capítulos em oito encontros semanais.
1. A mentalidade da efetividade
(1h e 21min de leitura)
Introdução
˖ 1.1 Sobre o programa (4min)
˖ 1.2 A mentalidade da efetividade (1min)
Sobre o Altruísmo Eficaz
˖ 1.3 Introdução ao Altruísmo Eficaz (18min)
˖ 1.4 Quatro ideias com as quais você já concorda (7min)
˖ 1.5 O Mundo É Horrível. O Mundo Está Muito Melhor. O Mundo Pode Ser Muito Melhor (6min)
Sobre a (in)sensibilidade ao escopo (ou alcance)
˖ 1.6 Sobre Importar-se (12min)
˖ 1.7 Insensibilidade ao alcance: Falhando em estimar o número de seres que precisam de nossa ajuda (6min)
Sobre a mentalidade de explorador e sobre pensar claramente
˖ 1.8 Por que você acha que está certo, mesmo quando está errado? (Vídeo legendado) (12min)
˖ 1.9 Como são vieses cognitivos vistos por dentro? (6min)
˖ 1.10 Adquira sentimentos calorosos e útilons separadamente (6min)
Sobre tradeoffs [definição]
˖ 1.11 Estamos em triagem a cada segundo de cada dia (5min)
Sobre impacto
˖ 1.12 500 milhões, mas nem mais um (3min) (Texto em formato de animação, legendado em português).
Leituras extras
˖ 1.13 Mais a ser explorado em “A Mentalidade da Efetividade” (1min)
2. Diferenças de impacto
(2h e 18min de leitura + 30min de exercício)
Introdução
˖ 2.1 Diferenças de impacto (1min)
A metodologia ITN
˖ 2.2 Uma estrutura para comparar problemas globais em termos de impacto esperado (23min)
Diferenças de impacto
˖ 2.3 Comparando organizações (7min)
Pensando na margem
˖ 2.4 Impacto marginal (Google Translate) (4min)
Estimativas de Fermi
˖ 2.5 Estimativas de Fermi (Google Translate)* (22min)
˖ 2.6 Efeitos diretos da poluição plástica marinha em alguns animais selvagens parecem pequenos (1min)
Dados sobre o cenário da saúde global e pobreza
˖ 2.7 Desigualdade econômica global (6min)
Estratégias AE para lidar com a pobreza global
˖ 2.8 Guia “Doação 101” da GiveWell (1min)
˖ 2.9 Saúde Global (Google Translate) (14min)
˖ 2.10 Apresentando o LEEP: o Projeto de Eliminação da Exposição ao Chumbo (6min)
Exercício
˖ 2.11 Exercício para ‘Diferenças de impacto’ (30min de exercício)
Leituras extras
˖ 2.12 Mais a ser explorado em “Diferenças de impacto” (3min)
˖ 2.13 Explore oportunidades de carreira em saúde e desenvolvimento globais (GoogleTranslate) (1min)
˖ 2.14 Descubra oportunidades de doação de alto impacto (GoogleTranslate) (1min)
3. Empatia Radical
(2h e 33min de leitura + 10min de exercício)
Introdução
˖ 3.1 Empatia radical – Introdução (1min)
Imparcialidade e empatia radical
˖ 3.2 Empatia radical (8min)
˖ 3.3 O progresso moral e a causa X (36min)
˖ 3.4 A possibilidade de uma catástrofe moral contínua (resumo) (5min)
˖ 3.5 Sobre ideias “à margem” (6min)
O caso da importância do bem-estar animal
˖ 3.6 Pecuária industrial - Perfil de problema (GoogleTranslate) (1h20min)
Estratégias para melhorar o bem-estar animal
˖ 3.7 Explore o site da Animal Advocacy Careers por pelo menos 5 minutos (GoogleTranslate) (5min)
Exercício
˖ 3.8 Exercício sobre “Empatia radical” (10min de exercício)
Leituras extras
˖ 3.9 Mais a ser explorado sobre “Empatia radical” (2min)
˖ 3.10 Explore vagas em bem-estar animal (GoogleTranslate) (5min)
˖ 3.11 Explore doações de alto impacto para animais (GoogleTranslate) (5min)
4. Nosso último século?
(1h e 57min de leitura + 3min de exercício)
Introdução
˖ 4.1 Nosso último século? (1min)
Riscos existenciais
˖ 4.2 O argumento pela redução dos riscos existenciais (25min)
Riscos de pandemias
˖ 4.3 Prevenção de pandemias catastróficas - Perfil de problema (GoogleTranslate) (43min)
Estratégias para melhorar biossegurança
˖ 4.4 Projetos concretos de Biossegurança (alguns dos quais podem ser grandes) (6min)
Valor esperado e doação baseada em acertos
˖ 4.5 Expected Value (em inglês) (7min)
˖ 4.6 Doando como um investidor de uma startup: doação baseada em acertos, explicada (GoogleTranslate) (23min)
Considerações cruciais
˖ 4.7 Consideração Crucial (GoogleTranslate) (3min)
Exercício
˖ 4.8 Exercício para "Nosso último século" (GoogleTranslate) (3min)
Leituras extras
˖ 4.9 Mais a ser explorado sobre “Nosso último século” (2min)
˖ 4.10 Riscos Catastróficos globais - Giving What We Can (GoogleTranslate) (2min)
˖ 4.11 Explore jobs in biosecurity, nuclear security, and climate change (em inglês) (5min)
5. O que o futuro nos reserva? E por que se importar?
(1h e 7min de leitura + 45min de exercício)
Introdução
˖ 5.1 O que o futuro nos reserva? E por que se importar? (1min)
O argumento a favor e contra o longotermismo
˖ 5.2 O que devemos ao futuro – Introdução (5min)
˖ 5.3 O que devemos ao futuro – Capítulo 1 (GoogleTranslate) (22min)
˖ 5.4 Por que acho o longoprazismo difícil e o que me mantém motivada (9min)
˖ 5.5 Por que provavelmente não sou uma longoprazista (9min)
Um divisor na história
˖ 5.6 Isso não pode continuar (GoogleTranslate) (13min)
O quanto podemos prever o futuro? De que maneira?
˖ 5.7 Superprevisões em poucas palavras (GoogleTranslate) (3min)
Como o futuro pode parecer?
˖ 5.8 Maiores previsões abertas do Metaculus (1min)
˖ 5.9 Longoprazismo e defesa dos animais (4min)
Exercício
˖ 5.10 Exercício para “O que o futuro nos reserva? E por que se importar?” (45min de exercício)
Leituras extras
˖ 5.11 Mais a ser explorado sobre ”O que o futuro nos reserva? E por que se importar?” (1min)
6. Riscos de Inteligência Artificial
(1h e 39min de leitura)
Introdução
˖ 6.1 Riscos de Inteligência Artificial (1min)
O argumento para se preocupar com os riscos de IA
˖ 6.2 Por que a IA é nosso último teste e maior convite - TED Tristan Harris (legendas em português)*(15min)
˖ 6.3 What happens if AI just keeps getting smarter? (em inglês, com tradução automática)*(14min)
˖ 6.4 O argumento para levar a IA a sério como uma ameaça à humanidade (GoogleTranslate) (43min)
˖ 6.5 [Our World in Data] AI timelines: What do experts in artificial intelligence expect for the future? (GoogleTranslate) (2min)
Estratégias para reduzir riscos de IA desalinhada
˖ 6.6 O panorama da governança longotermista de IA: uma síntese básica (11min)
˖ 6.7 Prevenção de catástrofes relativas a IA – Resumo do Perfil de problema (5min)
Riscos de sofrimento
˖ 6.8 Por que os riscos-s são os piores riscos existenciais e como evitá-los (GoogleTranslate) (26min)
Leituras extras
˖ 6.9 Mais a ser explorado sobre “Riscos de Inteligência Artificial” (2min)
˖ 6.9 Explore vagas em segurança e governança ede IA (em inglês) (5min)
˖ 6.10 Parece que existem algumas boas oportunidades de financiamento em segurança de IA agora agora (GoogleTranslate) (5min)
7. O que você pensa?
(1h e 51min de leitura + 1h e 30min de exercício)
Introdução
˖ 7.1 O que você pensa? (1min)
A regra de Bayes e evidências
˖ 7.2 Bayes’ rule: Guide (sem tradução por falta de licença) (4min)
˖ 7.3 Fazendo Crenças Pagarem Aluguel (ao Preverem Experiências) (5min)
˖ 7.4 O que é evidência? (4min)
Impressões independentes
˖ 7.5 Impressões independentes (2min)
Aprendendo com os erros
˖ 7.6 Refletindo sobre o ano passado - Lições para o AE (palestra de abertura no EAG) (GoogleTranslate) (19min)
˖ 7.7 O AE é sobre maximização, e maximização é perigosa (GoogleTranslate) (8min)
Causas menos comuns
˖ 7.8 A grande lista de causas candidatas (56min)
Exercício
˖ 7.9 Exercício sobre “O que você pensa?” (90min de exercício)
Leituras extras
˖ 7.10 Mais a ser explorado sobre “O que você pensa?” (3min)
8. Colocando em prática
(48min de leitura + 1h e 30min de exercício)
Introdução
˖ 8.1 Colocando em prática (1min)
Posturas em relação a fazer o bem
˖ 8.2 Um chamado à vigilância (4min)
˖ 8.3 O altruísmo eficaz como a causa mais empolgante do mundo (2min)
A escolha de carreira
˖ 8.4 Resumo das principais ideias do 80.000 horas (4min)
˖ 8.5 Minhas impressões atuais sobre a escolha de carreira para longotermistas (31min)
Doações
˖ 8.6 Explore o site da GiveWell por pelo menos 5 minutos (GoogleTranslate)
˖ 8.7 Explore o site da Giving What We Can por pelo menos 5 minutos (GoogleTranslate)
Lidando com a demanda excessiva
˖ 8.8 Temos mais do que um objetivo e não há problema nisso (2min)
Exercício
˖ 8.9 Exercício para “Colocando em prática” (90min de exercício)
Leituras extras
˖ 8.10 Mais a ser explorado sobre “Colocando em prática” (2min)
˖ 8.11 Participe do programa de planejamento de carreira* (2min)
˖ 8.12 Participe de um evento AE Global ou EAGx (GoogleTranslate) (2min)
˖ 8.13 Encontre um grupo local (GoogleTranslate) (2min)
Recomendamos a leitura de todos os textos, mas caso não consiga, pedimos que priorizem os em negrito.
* Estes artigos não estão na seleção atual do handbook em inglês.
Conteúdo traduzido, com poucas adaptações, do The Introduction to Effective Altruism Handbook pela comunidade do Altruísmo Eficaz Brasil, 2025.