boomEen internationaal team van wetenschappers, wiskundigen en filosofen van het Instituut van de Toekomst van de Mensheid, van de Universiteit van Oxford, onderzoekt wat de grootste gevaren zijn voor de mensheid.
Zij beweren in een onlangs uitgebrachte academische uitgave, Existential Risk as Global Priority (Existentiële Risico van de Wereldwijde Prioriteit), dat internationale beleidsmakers serieuze aandacht dienen te schenken aan de realiteit van risico’s die hele soorten kunnen vernietigen.
Vorig jaar zijn er meer academische uitgave’s over snowboarden uitgebracht dan over het uitsterven van de mensheid.
De directeur van het instituut, de Zweed Nick Bostrom, zei dat de risico’s niet hoger kunnen. Als we de dingen verkeerd aanpakken, dan kan dit het laatste eeuw worden van de mensheid.
Eerst, het goede nieuws
Pandemieën en natuurrampen kunnen leiden tot een kolossale en catastrofisch verlies van mensenlevens, maar Bostrom gelooft dat de mensheid dat waarschijnlijk zou overleven.
Dat komt omdat de mensheid duizenden jaren van ziektes, hongersnood, overstromingen, wilde dieren, vervolgingen, aardbevingen en klimaatveranderingen heeft overleefd. Dus de dingen zien er nog goed uit voor ons.
Hij beweert ook dat de risico’s dat wij binnen honderd jaar uitsterven door middel van een meteoren inslag of een grote vulkanische uitbarsting “extreem klein” zijn.
Zelfs de ongekende zelf toegebrachte verliezen in de 20ste eeuw door de twee Wereldoorlogen en de Spaanse griep epidemie kon de opwaartse toename van de globale menselijke bevolking niet stoppen.
Een nucleaire oorlog zou een verschrikkelijke vernietiging teweeg kunnen brengen, maar er zouden genoeg individuen kunnen overleven om de mensheid door te doen gaan.
Nu we deze geruststellingen, die ons goed doen voelen, hebben gehad, waar dienen ons dan echt zorgen over te maken?
Ongekende dreigingen
Bostrom gelooft dat we in een nieuw soort technologische tijdperk zijn aangekomen dat het vermogen heeft om onze toekomst te bedreigen als nooit van te voren. Dit zijn “bedreigingen waarvan wij geen verslag van het verleden hebben of we die zullen overleven”.
De directeur van het instituut vergelijkt het met een gevaarlijk wapen in de handen van een kind. Hij zegt dat de ontwikkeling van de technologie ons vermogen heeft ingehaald om de mogelijke gevolgen ervan te controleren.
Experimenten in gebieden zoals synthetische biologie, nanotechnologie en intelligente machines schieten vooruit in het gebied van het onbedoelde en het onvoorspelbare.
Synthetische biologie, waar de biologie kennis maakt met techniek, kan grote medische voordelen bieden. Maar dr. Bostrom is bezorgd over de onvoorzien consequenties in het manipuleren van de grenzen van de menselijke biologie.
Nanotechnologie, werken op een moleculair of atomisch niveau, kan ook heel vernietigend zijn als het gebruikt wordt voor oorlogvoering, beweert hij. Hij schreef dat toekomstige regeringen een grote uitdaging zullen hebben om misbruik te controleren en te beperken.
Er zijn ook angsten over hoe kunstmatige of intelligentie machines omgaan met de externe wereld. Zulke computer gedreven intelligentie kan een krachtige werktuig zijn voor de industriegebieden, medicatie, agricultuur of het beheren van de economie. Maar het kan ook helemaal onverschillig zijn voor enige incidentele schade.
Sean O’Heigeartaigh, een geneticus in het instituut, schreef een analogie met algoritmes die gebruikt worden bij de geautomatiseerde beurshandel.
Op dezelfde wijze dat deze mathematische lijnen een directe en vernietigende consequentie kunnen hebben voor echte economieën en mensen, kunnen zulke computers ook de “echte wereld manipuleren”.
Wat de risico’s van de biologie betreft, is hij bezorgd over misplaatste goede bedoelingen, zoals experimenten met genetische veranderingen of het afbreken en herbouwen van genetische structuren.
Deze eclectische groep onderzoekers praat vaak over de mogelijkheid om een krachtigere generatie computers te bouwen.
Maar collega onderzoeker Daniel Dewey praat over een intelligentie explosie waarbij de stijgende kracht van computers steeds onvoorspelbaar en oncontroleerbaar wordt.
“Kunstmatige intelligentie is één van de technologieën die meer en meer kracht zet in kleinere pakketjes”, zegt mr. Dewey, een Amerikaanse expert in super-intelligente machines die vroeger voor Google werkte.
Kettingreactie
Samen met biotechnologie en nanotechnologie zegt hij: “Er zijn dingen die men met deze technologieën kan veroorzaken, namelijk kettingreacties, zodat men met weinig middelen projecten kan beginnen die iedereen in de wereld kunnen treffen.”
Het “De Toekomst van de Mensheid” project in Oxford maakt deel uit van een trend dat zich richt om onderzoek te concentreren op zulke grote vragen. Het instituut werd gelanceerd door de Oxford Martin School, die academici vanuit allerlei verschillende gebieden bij elkaar brengt met het doel om de meest “dringende werelduitdagingen” aan te pakken.
Martin Rees, de voormalige president van de Royal Society of British Astronomy maakt plannen om een Centrum voor de Studie van Existentiële Risico’s te bouwen en bevestigt, “dit is het eerste eeuw in de geschiedenis van de wereld waarbij het grootste gevaar van de mensheid komt.”
Nick Bostrom zegt dat het belang van een existentieel gevaar “niet op de radar van de mensen zit”. Maar hij stelt dat verandering komt of we er klaar voor zijn of niet.
“Er is een knelpunt in de geschiedenis van de mensheid. De menselijke conditie zal veranderen. Het is mogelijk dat in een catastrofe zullen eindigen of dat we getransformeerd zullen worden door veel controle te nemen over onze biologie. Het is geen science fiction, religieuze doctrines of een gesprek in de late avonduren in een of andere kroeg.”
Bisschop Edir Macedo