Naar inhoud springen

Elon Musk: kunstmatige intelligentie is een fundamenteel risico voor de menselijke beschaving

Uit Wikinieuws

25 november 2017 

Elon Musk waarschuwt voor de gevaren van kunstmatige intelligentie (AI). Naar zijn mening is het een fundamenteel risico voor de menselijke beschaving. Hij is een van de industriële leiders en specialisten op dit gebied. Hij is medeoprichter van bedrijven als Tesla en SpaceX en verantwoordelijk voor het succes van PayPal.

Scenario's

Er zijn nu al scenario's denkbaar waarin de mens de controle over killer robots binnen enkele jaren kwijt is. Hier worden robots mee bedoeld die zelfstandig kunnen vuren en doden. Tijmen Blankevoort, ceo van het Amsterdamse AI-onderneming Scyfer, ziet dit de eerste honderd jaar nog niet gebeuren. Volgens hem gaan de ontwikkelingen langzamer. Op een incident met ontspoorde robots kan gereageerd worden door ze uit te schakelen.

In de onderstaande video wordt een ander scenario gepresenteerd. Duizenden kleine drones worden op de wereld losgelaten en vallen mensen van een bepaalde groep of klasse aan. Musk denkt dat dit een scenario is dat slechts op enkele jaren afstand van ons hoeft te liggen.

De video werd medio november getoond aan het begin van een conferentie van de Verenigde Naties in Genève. Op een verdrag was dit congres niet ingericht. Er werd eerst nog geïnventariseerd om welke soort wapens het gaat.

Future of Life Institute
Scenario (video)
13 november 2017
Toepassingen

Autonome wapensystemen worden nu ook al gebruikt, zelfs door de Nederlandse marine in het anti-raketsysteem Goalkeeper dat raketten zelfstandig detecteert. Maar ook voor burgerlijke toepassingen wordt nu al AI ingezet, zoals in zelfrijdende auto's, fraudedetectie bij creditcards en Siri in mobiele telefoons.

Doordat een escalatie bij militair gebruik geautomatiseerd gebeurt, kunnen conflicten sneller escaleren door AI. President Vladimir Poetin ziet de heilige graal in de ontwikkeling van AI-systemen. Wie AI beheerst, leidt de wereld. Xi Jinping wil dat zijn land in 2030 de wereldleider zal zijn op dit gebied.

Quote begin
Kunstmatige intelligentie is de toekomst, niet alleen voor Rusland, maar voor de hele mensheid. Het heeft een enorme mogelijkheden maar ook bedreigingen die nu nog moeilijk zijn te voorzien ... Wie de leider is in deze technologie, zal de wereldheerschappij verwerven.

— President Vladimir Poetin van Rusland
Quote einde
Quote begin
Tegen 2030 zal ons land de wereldleider zijn geworden op het gebied van de theorie, technologie en toepassing van kunstmatige intelligentie en de 'bakermat' worden voor ontwikkeling op het gebied van kunstmatige intelligentie.

— Partijvoorzitter Xi Jinping van China
Quote einde
Verbieden onmogelijk, regulering de oplossing

In aanloop naar het VN-congres waarschuwden 115 pioniers op het gebied van robotica voor de gevaren van autonome wapensystemen. Musk waarschuwde al eerder voor de gevaren van AI, zoals in juli tegenover Amerikaanse gouverneurs, maar ook deze week weer. Ook was hij een van de ondertekenaars van de brief aan de VN, evenals bijvoorbeeld Mustafa Suleyman (en) van Google en Joachim de Greeff, een van de oprichters van het bedrijf Interactive Robots. Anderen die ook al eerder waarschuwden, zijn Stephen Hawking en Bill Gates.

Quote begin
Kunstmatige intelligentie is de derde evolutiegolf in de wapenhistorie, na de uitvinding van het buskruit en nucleaire wapens. Eenmaal ontwikkeld zullen autonome wapens oorlogen op veel grotere schaal dan ooit mogelijk maken en veel sneller verlopen dan mensen kunnen bevatten. We hebben niet lang om te handelen, als deze Doos van Pandora eenmaal is geopend, zal het moeilijk zijn deze weer te sluiten.

— Petitie van 115 ondernemers, VN-congres Genève, medio november 2015
Quote einde

De Greeff gaat ervan uit dat een verbod niet zal slagen en pleit voor verregaande regulering. Dit is ook de intentie van de ondertekenaars die willen dat killer robots op dezelfde manier worden benaderd als biologische of chemische wapens. Peter Wijninga van het Den Haag Centrum voor Strategische Studies ziet een verbod zelfs niet zitten, omdat de gebruikte technologie ook voor vreedzame doeleinden worden gebruikt. Hij ziet ook meer in regels en wil dat het besluit voor het afvuren altijd door een mens genomen moet worden.

Bronnen

[bewerken]