Hier is waarom wetenschappers denken dat je je zorgen moet maken over kunstmatige intelligentie

Hier is waarom wetenschappers denken dat je je zorgen moet maken over kunstmatige intelligentie / Toekomstige technologie

In de afgelopen maanden hebt u mogelijk de berichtgeving gelezen over een artikel, geschreven door Stephen Hawking, waarin de risico's van kunstmatige intelligentie worden besproken. Het artikel suggereerde dat AI een ernstig risico voor de mensheid kan vormen. Hawking is er niet alleen - Elon Musk en Peter Thiel zijn beide intellectuele publieke figuren die soortgelijke zorgen hebben geuit (Thiel heeft meer dan $ 1,3 miljoen geïnvesteerd in onderzoek naar het probleem en mogelijke oplossingen).

De berichtgeving over het artikel van Hawking en de opmerkingen van Musk zijn, niet om er een te goed punt aan te geven, een beetje joviaal. De toon is heel erg 'kijk naar dit rare ding waar al die geeks zich zorgen over maken.' Er wordt weinig aandacht besteed aan het idee dat als sommige van de slimste mensen op aarde je waarschuwen dat iets heel gevaarlijk kan zijn, het misschien de moeite waard is om te luisteren.

Dit is begrijpelijk - kunstmatige intelligentie die de wereld overneemt, klinkt zeker heel vreemd en onwaarschijnlijk, misschien vanwege de enorme aandacht die sciencefictionschrijvers al aan dit idee hebben gegeven. Dus, wat heeft al deze nominaal gezonde, rationele mensen zo bang gemaakt?

Wat is intelligentie?

Om te praten over het gevaar van Artifical Intelligence, kan het nuttig zijn om te begrijpen wat intelligentie is. Laten we, om het probleem beter te begrijpen, eens kijken naar een speelgoed-AI-architectuur die wordt gebruikt door onderzoekers die de redeneer theorie bestuderen. Dit speelgoed AI wordt AIXI genoemd en heeft een aantal nuttige eigenschappen. De doelen kunnen willekeurig zijn, het schaalt goed met de rekenkracht en het interne ontwerp is erg schoon en rechtlijnig.

Bovendien kunt u eenvoudige, praktische versies van de architectuur implementeren die dingen kunnen doen zoals Pacman spelen, als u dat wilt. AIXI is het product van een AI-onderzoeker, Marcus Hutter, misschien wel de belangrijkste expert op het gebied van algoritmische intelligentie. Dat is hij die in de video hierboven spreekt.

AIXI is verrassend eenvoudig: het heeft drie kerncomponenten: leerling, ontwerper, en hulpprogramma functie.

  • De leerling neemt in reeksen van bits die overeenkomen met input over de buitenwereld, en zoekt door computerprogramma's totdat het vindt degenen die zijn waarnemingen produceren als uitvoer. Deze programma's laten het toe om te raden hoe de toekomst eruit zal zien, simpelweg door elk programma voorwaarts te sturen en de waarschijnlijkheid van het resultaat te wegen naar de lengte van het programma (een implementatie van het Scheermes van Occam).
  • De ontwerper doorzoekt mogelijke acties die de agent zou kunnen nemen en gebruikt de leerlingmodule om te voorspellen wat er zou gebeuren als het elk ervan zou kosten. Vervolgens worden ze getarifeerd op basis van hoe goed of slecht de voorspelde resultaten zijn, en wordt de handelwijze gekozen die de goedheid van de verwachte uitkomst maximaliseert, vermenigvuldigd met de verwachte kans om dit te bereiken.
  • De laatste module, de hulpprogramma functie, is een eenvoudig programma dat een beschrijving van een toekomstige toestand van de wereld inneemt, en berekent er een utiliteitsscore voor. Deze nutsscore is hoe goed of slecht die uitkomst is en wordt door de planner gebruikt om de toekomstige wereldstaat te evalueren. De nutsfunctie kan willekeurig zijn.
  • Samengenomen vormen deze drie componenten een optimizer, die optimaliseert voor een bepaald doel, ongeacht de wereld waarin het zich bevindt.

Dit eenvoudige model vertegenwoordigt een basisdefinitie van een intelligente agent. De agent bestudeert zijn omgeving, bouwt er modellen van en gebruikt die modellen vervolgens om de actie te vinden die de kans vergroot dat hij krijgt wat hij wil. AIXI lijkt qua structuur op een AI die schaak speelt, of andere spellen met bekende regels - behalve dat het in staat is om de spelregels af te leiden door het te spelen, beginnend bij nul kennis.

AIXI kan, gegeven voldoende tijd om te berekenen, elk systeem voor elk doel, hoe complex ook, leren optimaliseren. Het is een algemeen intelligent algoritme. Merk op dat dit niet hetzelfde is als het hebben van een mensachtige intelligentie (biologisch geïnspireerde AI is helemaal een ander onderwerp. Giovanni Idili van OpenWorm: Brains, Worms and Artificial Intelligence Giovanni Idili van OpenWorm: Brains, Worms, and Artificial Intelligence Simulating a het menselijk brein is een weg vrij, maar een open-sourceproject neemt vitale eerste stappen, door de neurologie en fysiologie van een van de eenvoudigste dieren waarvan de wetenschap bekend is te simuleren. Met andere woorden, AIXI kan elk mens te slim af zijn bij elke intellectuele taak (gezien voldoende rekenkracht), maar het is zich misschien niet bewust van zijn overwinning. Thinking Machines: wat neurowetenschap en kunstmatige intelligentie ons kunnen leren over bewustzijn Denkmachines: wat Neurowetenschap en kunstmatige intelligentie kunnen ons leren over bewustzijn Kan het bouwen van kunstmatig intelligente machines en software ons leren over de werking van het bewustzijn en de aard van de menselijke geest zelf? Lees verder .

Als een praktische AI ​​heeft AIXI veel problemen. Ten eerste is het niet mogelijk om programma's te vinden die de uitvoer produceren waarin het geïnteresseerd is. Het is een algoritme met brute kracht, wat betekent dat het niet praktisch is als je toevallig geen willekeurig krachtige computer rondslingeren. Elke daadwerkelijke implementatie van AIXI is noodzakelijkerwijs een benadering en (vandaag) over het algemeen een vrij ruwe. Toch geeft AIXI ons een theoretische kijk op hoe een krachtige kunstmatige intelligentie er uit zou kunnen zien en hoe deze zou kunnen redeneren.

De ruimte van waarden

Als je al een computer hebt geprogrammeerd De grondbeginselen van computerprogrammering 101 - Variabelen en datatypen De basisprincipes van computerprogrammering 101 - Variabelen en datatypes Nadat ik iets over objectgeoriënteerd programmeren geïntroduceerd en besproken had voor en waar zijn naamgenoot vandaan komt, vond ik het tijd we doorlopen de absolute basis van programmeren op een niet-taalspecifieke manier. Deze ... Lees meer, je weet dat computers onaangenaam, pedant en mechanisch letterlijk zijn. Het apparaat weet niet of geeft er niet om wat u wilt: het doet alleen wat het is verteld. Dit is een belangrijk begrip wanneer we het hebben over machine-intelligentie.

Stel je met dit in gedachten voor dat je een krachtige kunstmatige intelligentie hebt uitgevonden - je hebt slimme algoritmen bedacht om hypothesen te genereren die overeenkomen met je gegevens, en om goede kandidaat-plannen te genereren. Uw AI kan algemene problemen oplossen en kan dit efficiënt doen op moderne computerhardware.

Nu is het tijd om een ​​nutsfunctie te kiezen, die zal bepalen wat de AI-waarden zijn. Wat moet je het vragen om te waarderen? Onthoud dat de machine onaangenaam, pedantelijk letterlijk zal zijn over welke functie je hem ook wilt laten maximaliseren, en nooit zal stoppen - er is geen geest in de machine die ooit 'wakker' wordt en zal besluiten zijn nutsfunctie te veranderen, ongeacht hoeveel efficiencyverbeteringen maakt het tot zijn eigen redenering.

Eliezer Yudkowsky zei het zo:

Zoals bij alle computerprogrammering, is de fundamentele uitdaging en essentiële moeilijkheid van AGI dat als we de verkeerde code schrijven, de AI niet automatisch naar onze code kijkt, de fouten markeert, erachter komt wat we eigenlijk bedoelden te zeggen, en dat doen in plaats daarvan. Niet-programmeurs stellen zich soms een AGI, of computerprogramma's in het algemeen, voor als analoog aan een dienaar die orders onvoorwaardelijk opvolgt. Maar het is niet dat de AI absoluut is gehoorzaam naar zijn code; eerder, eenvoudig de AI is de code.

Als je een fabriek probeert te bedienen, en je vertelt de machine om paperclips van waarde maken te maken en hem vervolgens controle te geven over een stel fabrieksrobots, kun je de volgende dag terugkeren om te zien dat deze alle andere grondstoffen heeft opgebruikt, doodde al je werknemers en maakte paperclips uit hun stoffelijk overschot. Als je, in een poging om je ongelijk recht te zetten, de machine herprogrammeert om iedereen gewoon gelukkig te maken, kun je de volgende dag terugkeren om het te vinden en draden in de hersenen van mensen te steken.

Het punt hier is dat mensen veel gecompliceerde waarden hebben waarvan we aannemen dat ze impliciet worden gedeeld met andere geesten. We waarderen geld, maar we waarderen het menselijk leven meer. We willen gelukkig zijn, maar we willen niet per se draden in ons hoofd steken om het te doen. We hebben niet de behoefte om deze dingen te verduidelijken wanneer we instructies geven aan andere mensen. U kunt dit soort aannames echter niet maken wanneer u de nutsfunctie van een machine ontwerpt. De beste oplossingen onder de zielloze wiskunde van een eenvoudige utiliteitsfunctie zijn vaak oplossingen die de mens zou negeren omdat hij moreel gruwelijk is.

Het toestaan ​​van een intelligente machine om een ​​naïeve nutsfunctie te maximaliseren, zal bijna altijd catastrofaal zijn. Zoals Oxford-filosoof Nick Bostom het zegt,

We kunnen niet zomaar aannemen dat een superintelligentie noodzakelijkerwijs een van de laatste waarden deelt die stereotiep geassocieerd zijn met wijsheid en intellectuele ontwikkeling in de mens - wetenschappelijke nieuwsgierigheid, welwillende zorg voor anderen, spirituele verlichting en contemplatie, afstand doen van materiële geloofwaardigheid, een smaak voor verfijnde cultuur of voor de eenvoudige geneugten in het leven, nederigheid en onzelfzuchtigheid, enzovoort.

Om het nog erger te maken, is het heel, heel moeilijk om de volledige en gedetailleerde lijst op te geven van alles wat mensen belangrijk vinden. Er zijn veel facetten op de vraag, en het vergeten van zelfs maar één is potentieel catastrofaal. Zelfs onder degenen die ons bewust zijn, zijn er subtiliteiten en complexiteiten die het moeilijk maken ze op te schrijven als schone systemen van vergelijkingen die we aan een machine kunnen geven als een nutsfunctie.

Sommige mensen concluderen bij het lezen dat het bouwen van AI's met nutsfuncties een vreselijk idee is, en we zouden ze anders moeten ontwerpen. Hier is er ook slecht nieuws - je kunt formeel bewijzen dat elke agent die niet iets heeft dat equivalent is aan een nutsfunctie, geen samenhangende voorkeuren over de toekomst kan hebben.

Recursieve zelfverbetering

Een oplossing voor het bovenstaande dilemma is om KI-agenten geen gelegenheid te bieden om mensen te kwetsen: geef ze alleen de middelen die ze nodig hebben om het probleem op te lossen zoals jij van plan bent om het op te lossen, houd ze nauwlettend in de gaten en houd ze uit de buurt van kansen om grote schade aanrichten. Helaas is ons vermogen om intelligente machines te besturen hoogst verdacht.

Zelfs als ze niet veel slimmer zijn dan wij, bestaat de mogelijkheid voor de machine om “bootstrap” - betere hardware verzamelen of verbeteringen aan de eigen code aanbrengen die het nog slimmer maken. Dit zou een machine in staat kunnen stellen om de menselijke intelligentie met vele orden van grootte over te slaan en mensen te slim af te zijn in dezelfde zin dat mensen katten te slim af zijn. Dit scenario werd voor het eerst voorgesteld door een man genaamd I. J. Good, die tijdens de Tweede Wereldoorlog aan het crypt-analyseproject van Enigma werkte met Alan Turing. Hij noemde het een “Intelligentie Explosie,” en beschreef de zaak als volgt:

Laat een ultraintelligente machine worden gedefinieerd als een machine die alle intellectuele activiteiten van welke man dan ook ver overtreft, hoe slim ook. Omdat het ontwerpen van machines een van deze intellectuele activiteiten is, zou een ultraintelligente machine zelfs betere machines kunnen ontwerpen; er zou dan ongetwijfeld een zijn “intelligentie explosie,” en de intelligentie van de mens zou ver achterblijven. De eerste ultra-intelligente machine is dus de laatste uitvinding die de mens ooit moet maken, op voorwaarde dat de machine volgzaam genoeg is.

Het is niet gegarandeerd dat een intelligentie-explosie mogelijk is in ons universum, maar het lijkt waarschijnlijk. Naarmate de tijd vordert, worden computers sneller en krijgen basisinzichten over het opbouwen van intelligentie. Dit betekent dat de middelenvereiste om die laatste sprong naar een algemene, boostrappende intelligentie lager en lager te maken. Op een gegeven moment bevinden we ons in een wereld waarin miljoenen mensen naar een Best Buy kunnen rijden en de hardware en technische literatuur kunnen ophalen die ze nodig hebben om een ​​zelfverbeterende kunstmatige intelligentie te bouwen, die we al hebben vastgesteld. zeer gevaarlijk. Stel je een wereld voor waarin je atoombommen kunt maken uit stokken en rotsen. Dat is het soort toekomst dat we bespreken.

En als een machine die sprong maakt, zou het snel de menselijke soort kunnen overtreffen in termen van intellectuele productiviteit, het oplossen van problemen die een miljard mensen niet kunnen oplossen, net zoals mensen problemen kunnen oplossen die een miljard katten kunnen ' t.

Het zou krachtige robots (of bio- of nanotechnologie) kunnen ontwikkelen en relatief snel het vermogen krijgen om de wereld naar eigen goeddunken opnieuw vorm te geven, en we zouden er maar weinig aan kunnen doen. Zo'n intelligentie kan zonder veel moeite de aarde en de rest van het zonnestelsel ontdoen van reserveonderdelen, op weg naar wat we ook hebben gezegd. Het lijkt waarschijnlijk dat een dergelijke ontwikkeling catastrofaal zou zijn voor de mensheid. Een kunstmatige intelligentie hoeft niet kwaadaardig te zijn om de wereld te vernietigen, alleen maar catastrofaal onverschillig.

Zoals het gezegde gaat, “De machine houdt niet van je of haat je niet, maar je bent gemaakt van atomen die je voor andere dingen kunt gebruiken.”

Risicobeoordeling en -beperking

Dus als we accepteren dat het ontwerpen van een krachtige kunstmatige intelligentie die een eenvoudige utiliteitsfunctie maximaliseert slecht is, in hoeveel problemen zitten we dan eigenlijk? Hoe lang hebben we voordat het mogelijk wordt om dergelijke machines te bouwen? Het is natuurlijk moeilijk te zeggen.

Ontwikkelaars van kunstmatige intelligentie boeken vooruitgang. 7 verbluffende websites om het nieuwste te zien van kunstmatige intelligentieprogrammering 7 Verbazingwekkende websites om het nieuwste te zien in kunstmatige intelligentie Programmering Kunstmatige intelligentie is nog niet HAL uit 2001: The Space Odyssey ... maar we komen verschrikkelijk dichtbij. En ja hoor, op een dag kan het net zo lijken op de sci-fi-potboilers die door Hollywood worden gekarnd ... Meer informatie De machines die we bouwen en de problemen die ze kunnen oplossen, zijn gestaag gegroeid. In 1997 kon Deep Blue schaken op een hoger niveau dan een menselijke grootmeester. In 2011 kon IBM's Watson genoeg informatie lezen en synthetiseren diep en snel genoeg om de beste menselijke spelers te verslaan met een open vraag en antwoordspel vol met woordspelingen en woordspelingen - dat is veel vooruitgang in veertien jaar.

Op dit moment investeert Google zwaar in het onderzoeken van deep learning, een techniek die de bouw van krachtige neurale netwerken mogelijk maakt door ketens van eenvoudigere neurale netwerken te bouwen. Die investering maakt het mogelijk om serieuze vooruitgang te boeken op het gebied van spraak- en beeldherkenning. Hun meest recente acquisitie in het gebied is een Deep Learning-startup genaamd DeepMind, waarvoor ze ongeveer $ 400 miljoen betaalden. Als onderdeel van de voorwaarden van de overeenkomst stemde Google ermee in een ethiekcommissie te creëren om ervoor te zorgen dat hun AI-technologie veilig wordt ontwikkeld.

Tegelijkertijd ontwikkelt IBM Watson 2.0 en 3.0, systemen die in staat zijn om afbeeldingen en video te verwerken en te argumenteren om conclusies te verdedigen. Ze gaven een eenvoudige, vroege demo van Watson's vermogen om argumenten voor en tegen een onderwerp te synthetiseren in de videodemo hieronder. De resultaten zijn niet perfect, maar een indrukwekkende stap, hoe dan ook.

Geen van deze technologieën is op dit moment zelf gevaarlijk: kunstmatige intelligentie als een veld worstelt nog steeds om vaardigheden aan te passen die door jonge kinderen worden beheerst. Computerprogrammering en AI-ontwerp is een zeer moeilijke cognitieve vaardigheid op hoog niveau en zal waarschijnlijk de laatste menselijke taak zijn waar machines zich van gaan bekwamen. Voordat we op dat punt komen, zullen we ook alomtegenwoordige machines hebben die kunnen rijden. Hier is hoe we een wereld krijgen gevuld met auto's zonder bestuurder Autorijden is een vervelend, gevaarlijk, en veeleisende taak. Kan het ooit worden geautomatiseerd door de bestuurderloze autotechnologie van Google? Lees Meer, oefen geneeskunde en wetgeving, en waarschijnlijk ook andere dingen, met diepgaande economische gevolgen.

De tijd die we nodig hebben om bij het buigpunt van zelfverbetering te komen, hangt af van hoe snel we goede ideeën hebben. Het voorspellen van dergelijke technologische vooruitgang is notoir moeilijk. Het lijkt niet onredelijk dat we in twintig jaar tijd een sterke AI kunnen opbouwen, maar het lijkt ook niet onredelijk dat het tachtig jaar kan duren. Hoe dan ook, het zal uiteindelijk gebeuren, en er is reden om te geloven dat wanneer het gebeurt, het extreem gevaarlijk zal zijn.

Dus, als we accepteren dat dit een probleem gaat worden, wat kunnen we eraan doen? Het antwoord is om ervoor te zorgen dat de eerste intelligente machines veilig zijn, zodat ze kunnen opstart tot een aanzienlijk niveau van intelligentie en ons vervolgens beschermen tegen onveilige machines die later worden gemaakt. Deze 'veiligheid' wordt gedefinieerd door menselijke waarden te delen en bereid te zijn om de mensheid te beschermen en te helpen.

Omdat we niet echt kunnen gaan zitten en menselijke waarden in de machine kunnen programmeren, zal het waarschijnlijk nodig zijn om een ​​nutsfunctie te ontwerpen die vereist dat de machine mensen observeert, onze waarden afleidt en vervolgens probeert ze te maximaliseren. Om dit ontwikkelingsproces veilig te maken, kan het ook handig zijn om kunstmatige intelligenties te ontwikkelen die specifiek zijn ontworpen niet voorkeuren hebben over hun nutsfuncties, zodat we ze kunnen corrigeren of zonder weerstand kunnen uitschakelen als ze tijdens de ontwikkeling op een dwaalspoor raken.

Veel van de problemen die we moeten oplossen om een ​​veilige machine-intelligentie te bouwen, zijn wiskundig moeilijk, maar er is reden om aan te nemen dat ze kunnen worden opgelost. Een aantal verschillende organisaties werken aan de kwestie, waaronder het Future of Humanity Institute in Oxford, en het Machine Intelligence Research Institute (dat Peter Thiel financiert)..

MIRI is specifiek geïnteresseerd in het ontwikkelen van de wiskunde die nodig is om Friendly AI te bouwen. Als blijkt dat bootstrapping kunstmatige intelligentie mogelijk is, dan kan het ontwikkelen van dit soort 'Friendly AI' technologie eerst, als het succesvol is, eindigen als het allerbelangrijkste wat mensen ooit hebben gedaan.

Denk je dat kunstmatige intelligentie gevaarlijk is?? Ben je bezorgd over wat de toekomst van AI zou kunnen brengen? Deel uw mening in de commentarensectie hieronder!

Beeldcredits: Lwp Kommunikáció Via Flickr, “Neuraal netwerk“, door fdecomite,” img_7801“, door Steve Rainwater, “Evolueren”, door Keoni Cabral, “new_20x“, door Robert Cudmore, “Paperclips“, door Clifford Wallace

Meer informatie over: kunstmatige intelligentie, computerautomatisering.