![]() |
Clicar na imagem para ampliar | Imagem retirada daqui. |
Texto original aqui (tradução em Português aqui).
Lista de Referências Sobre IA
Vídeos
Artigos nos Média
Ensaios por Pesquisadores de IA
Artigos de Pesquisa
Colecções de Pesquisas
Estudos de Caso
Publicações em Blogues e Palestras
Livros
Organizações
- Stuart Russell – The Long-Term Future of (Artificial) Intelligence
- Humans Need Not Apply
- Nick Bostrom on Artificial Intelligence and Existential Risk
- Stuart Russell Interview on the long-term future of AI
- Value Alignment – Stuart Russell: Berkeley IdeasLab Debate Presentation at the World Economic Forum
- Social Technology and AI: World Economic Forum Annual Meeting 2015
- Stuart Russell, Eric Horvitz, Max Tegmark – The Future of Artificial Intelligence
Artigos nos Média
- Concerns of an Artificial Intelligence Pioneer
- Transcending Complacency on Superintelligent Machines
- Why We Should Think About the Threat of Artificial Intelligence
- Stephen Hawking Is Worried About Artificial Intelligence Wiping Out Humanity
- Artificial Intelligence could kill us all. Meet the man who takes that risk seriously
- Artificial Intelligence Poses ‘Extinction Risk’ To Humanity Says Oxford University’s Stuart Armstrong
- What Happens When Artificial Intelligence Turns On Us?
- Can we build an artificial superintelligence that won’t kill us?
- Artificial intelligence: Our final invention?
- Artificial intelligence: Can we keep it in the box?
- Science Friday: Christof Koch and Stuart Russell on Machine Intelligence (transcript)
- Transcendence: An AI Researcher Enjoys Watching His Own Execution
- Science Goes to the Movies: ‘Transcendence’
- Our Fear of Artificial Intelligence
Ensaios por Pesquisadores de IA
- Stuart Russell: What do you Think About Machines that Think?
- Stuart Russell: Of Myths and Moonshine
- Jacob Steinhardt: Long-Term and Short-Term Challenges to Ensuring the Safety of AI Systems
- Eliezer Yudkowsky: Why value-aligned AI is a hard engineering problem
Artigos de Pesquisa
- Intelligence Explosion: Evidence and Import (MIRI)
- Intelligence Explosion and Machine Ethics (Luke Muehlhauser, MIRI)
- Artificial Intelligence as a Positive and Negative Factor in Global Risk (MIRI)
- Basic AI drives
- Racing to the Precipice: a Model of Artificial Intelligence Development
- The Ethics of Artificial Intelligence
- The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents
- Wireheading in mortal universal agents
Colecções de Pesquisas
- Bruce Schneier – Resources on Existential Risk, p. 110
- Aligning Superintelligence with Human Interests: A Technical Research Agenda (MIRI)
- MIRI publications
Estudos de Caso
- The Asilomar Conference: A Case Study in Risk Mitigation (Katja Grace, MIRI)
- Pre-Competitive Collaboration in Pharma Industry (Eric Gastfriend and Bryan Lee, FLI): Um estudo de caso da colaboração pré-concorrencial em matéria de segurança na indústria.
Publicações em Blogues e Palestras
- AI control
- AI Impacts
- No time like the present for AI safety work
- AI Risk and Opportunity: A Strategic Analysis
- Where We’re At – Progress of AI and Related Technologies: Uma introdução ao avanço das instituições de pesquisa que desenvolvem novas tecnologias de IA.
- AI safety
- Wait But Why on Artificial Intelligence
- Response to Wait But Why by Luke Muehlhauser
- Slate Star Codex on why AI-risk research is not that controversial
- Less Wrong: A toy model of the AI control problem
Livros
- Superintelligence: Paths, Dangers, Strategies
- Our Final Invention: Artificial Intelligence and the End of the Human Era
- Facing the Intelligence Explosion
- E-book about the AI risk (Incluindo um enredo do "Terminator", que é mais plausível do que a versão do filme)
Organizações
- Machine Intelligence Research Institute: Organização sem fins lucrativos cuja missão é garantir que a criação da IA mais inteligente do que a humana terá um impacto positivo.
- Centre for the Study of Existential Risk (CSER): Um centro de investigação multidisciplinar dedicado ao estudo e mitigação de riscos que podem levar à extinção humana.
- Future of Humanity Institute: Um instituto de pesquisa multidisciplinar que aplica as ferramentas da matemática, filosofia e ciência para lidar com questões mais amplas sobre a humanidade e as suas perspectivas.
- Global Catastrophic Risk Institute: Um grupo de reflexão liderando a pesquisa, a educação e o relacionamento profissional no risco catastrófico global.
- Organizations Focusing on Existential Risks: Uma breve introdução a algumas das organizações que trabalham com riscos existenciais.
- 80,000 Hours: Um guia de carreira para os investigadores de segurança da IA.