7 maart 2025
0 Reactie(s)

7 maart 2025

Waarom een Project Manhattan-achtig AGI-project geen goed idee zou zijn

Het idee van een ‘Manhattan Project voor AGI’ verwijst naar een grootse, door de overheid gesteunde inspan­ning om AI-systemen met ‘boven­men­se­lijke’ intel­li­gentie te ontwik­kelen, ook wel bekend als AGI. Dit concept is geïnspi­reerd door het Manhattan Project uit de jaren 40, dat leidde tot de ontwik­ke­ling van de atoombom.

Waarom is dit geen goed idee?

In een recent beleids­do­cu­ment, geschreven door oud-Google CEO Eric Schmidt, Scale AI CEO Alexandr Wang en Center for AI Safety direc­teur Dan Hendrycks, wordt gewaar­schuwd voor een derge­lijke aanpak. Hier zijn de redenen waarom zij dit idee afwijzen:

  1. Inter­na­ti­o­nale spanningen: Een agres­sieve poging van de VS om exclu­sief controle te krijgen over super­in­tel­li­gente AI-systemen zou heftige vergel­ding van China kunnen uitlokken, mogelijk in de vorm van een cyber­aanval. Dit zou de inter­na­ti­o­nale betrek­kingen kunnen destabiliseren.
  2. Gevaar van escalatie: Het streven naar een super­wapen en wereld­wijde controle kan leiden tot vijan­dige tegen­maat­re­gelen en escale­rende spanningen, waardoor de stabi­li­teit die de strategie beoogt te waarborgen, juist in gevaar komt.
  3. Mutual Assured AI Malfunc­tion (MAIM): Schmidt en zijn co-auteurs intro­du­ceren het concept van MAIM, waarbij overheden dreigende AI-projecten proac­tief kunnen uitscha­kelen in plaats van te wachten tot vijanden AGI als wapen inzetten.

Een alternatieve aanpak


Podcast: Project Manhattan AGI

In plaats van te focussen op het ‘winnen van de race naar super­in­tel­li­gentie’, pleiten de auteurs voor een meer afgewogen benade­ring. Ze stellen voor dat de VS zich moet richten op het ontwik­kelen van methoden die andere landen afschrikken om super­in­tel­li­gente AI te creëren. Dit zou kunnen betekenen dat de VS haar arsenaal aan cyber­aan­vallen uitbreidt om dreigende AI-projecten in andere landen uit te schakelen en de toegang van vijanden tot geavan­ceerde AI-chips en open-source­mo­dellen te beperken.

Conclusie

Het beleids­do­cu­ment van Schmidt, Wang en Hendrycks biedt een derde weg: een afgewogen aanpak die defen­sieve strate­gieën priori­teert boven een race naar super­in­tel­li­gentie. Dit stand­punt is opmer­ke­lijk, gezien Schmidts eerdere pleidooi voor agres­sieve concur­rentie met China op het gebied van AI. Terwijl de VS doorgaat met het ontwik­kelen van AI, sugge­reren de auteurs dat een defen­sieve benade­ring wellicht wijzer zou zijn.

Robbert Hoeffnagel

Robbert Hoeffnagel

Editor en journalist @ Business Meets IT

0 Reactie(s)

9 weergaven

Gerelateerde berichten

Startup Juvoly neemt twee supercomputers in gebruik voor trainen eigen AI-model voor zorg

Startup Juvoly neemt twee supercomputers in gebruik voor trainen eigen AI-model voor zorg

ING: ‘Nog te weinig sectoren profiteren van AI’

ING: ‘Nog te weinig sectoren profiteren van AI’

Hoe NiFi kan helpen meer inzichten en waarde uit data te halen

Hoe NiFi kan helpen meer inzichten en waarde uit data te halen

Onderzoek: Nederlanders vinden AI een bedreiging voor hun (online) veiligheid

Onderzoek: Nederlanders vinden AI een bedreiging voor hun (online) veiligheid

0 Reactie(s)

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Reacties gesloten

De reactiemogelijkheid is verlopen. (14 dagen)

Pin It on Pinterest

Share This