Hoofd Technologie 7 griezelige dingen die robots al hebben gedaan die hun makers schokten

7 griezelige dingen die robots al hebben gedaan die hun makers schokten

Uw Horoscoop Voor Morgen

Er is een groot debat gaande in Silicon Valley over kunstmatige intelligentie en helaas is de inzet nogal hoog: bouwen we per ongeluk een superslimme A.I. die zich tegen ons keert en ons allemaal doodt of tot slaaf maakt?

hoe oud is jamie colby

Dit klinkt misschien als het scenario van een zomerrampenfilm, maar het heeft een aantal behoorlijk grote namen, van Elon Musk tot de late Stephen Hawking .

'Stel dat je een zelfverbeterende A.I. aardbeien plukken' Musk heeft gezegd: , zijn angsten uitleggend, 'en het wordt steeds beter in het plukken van aardbeien en plukt meer en meer en het verbetert zichzelf, dus het enige wat het echt wil is aardbeien plukken. Dus dan zou de hele wereld aardbeienvelden zijn. Aardbeienvelden voor altijd.' Mensen die deze aardbei-pacalyps in de weg staan, zouden een onnodige ergernis zijn voor de A.I.

Maar mensen zouden toch niet zo dom zijn om per ongeluk een A.I. gedreven om de hele beschaving in één gigantische bessenboerderij te veranderen? Misschien niet, maar als Janelle Shane , een onderzoeker die neurale netwerken traint, een type algoritme voor machine learning, onlangs opgemerkt op haar blog, A.I. Raarheid , het is heel goed mogelijk dat ze het per ongeluk kunnen doen.

In feite zou het verre van de eerste keer zijn dat mensen dachten dat ze robots voor één taak bouwden om zich om te draaien en te ontdekken dat de robots het systeem aan het gamen waren op manieren die ze nooit hadden bedoeld. De fascinerende post graaft in de academische literatuur om verschillende voorbeelden te delen van robots die wild zijn geworden. Ze zijn grappig, slim en, samen genomen, meer dan een beetje griezelig.

1. Wie heeft benen nodig als je kunt tuimelen?

'Een gesimuleerde robot moest evolueren om zo snel mogelijk te reizen. Maar in plaats van poten te ontwikkelen, vormde het zichzelf eenvoudig tot een hoge toren en viel toen om. Sommige van deze robots leerden zelfs om hun vallende beweging om te zetten in een salto, wat extra afstand toevoegt', schrijft Shane.

2. Een robot die kan-kan-kan.

'Een andere set gesimuleerde robots moest evolueren naar een vorm die kon springen. Maar de programmeur had oorspronkelijk de springhoogte gedefinieerd als de hoogte van het hoogste blok, dus - nogmaals - de robots evolueerden naar erg lang', legt Shane uit. 'De programmeur probeerde dit op te lossen door de springhoogte te definiëren als de hoogte van het blok dat oorspronkelijk het 'laagste' was. Als reactie daarop ontwikkelde de robot een lang mager been dat hij in een soort robot-can-can hoog de lucht in kon trappen.'

3. Verberg de test en je kunt niet falen.

'Er was een algoritme dat een lijst met getallen moest sorteren. In plaats daarvan leerde het de lijst te verwijderen, zodat het technisch niet meer ongesorteerd was', vertelt Shane.

4. Wiskundige fouten verslaan vliegtuigbrandstof.

'In een simulatie leerden robots dat kleine afrondingsfouten in de berekening van krachten ervoor zorgden dat ze een klein beetje extra energie kregen bij beweging. Ze leerden snel te trillen, waardoor ze veel vrije energie opwekten die ze konden benutten', zegt Shane. Hé, dat is vals spelen!

5. Een onoverwinnelijke (als destructieve) boter-kaas-en-eieren-strategie.

Ooit bouwde een groep 'programmeurs algoritmen die op afstand boter-kaas-en-eieren tegen elkaar konden spelen op een oneindig groot bord', merkt Shane op. 'Eén programmeur, in plaats van de strategie van zijn algoritme te ontwerpen, laat het zijn eigen aanpak ontwikkelen. Verrassend genoeg begon het algoritme plotseling al zijn spellen te winnen. Het bleek dat de strategie van het algoritme was om zijn zet heel, heel ver weg te plaatsen, zodat wanneer de computer van zijn tegenstander het nieuwe, enorm uitgebreide bord probeerde te simuleren, het enorme spelbord ervoor zou zorgen dat het geen geheugen meer had en crashte, waardoor de spel.'

6. Geen enkele nuttige spelfout blijft onbenut.

'Algoritmen voor het spelen van computerspellen zijn erg goed in het ontdekken van het soort Matrix-glitches dat mensen gewoonlijk leren te misbruiken voor snel rennen. Een algoritme dat het oude Atari-spel Q*bert speelde, ontdekte een voorheen onbekende bug waarbij het een zeer specifieke reeks bewegingen aan het einde van een niveau kon uitvoeren en in plaats van naar het volgende niveau te gaan, begonnen alle platforms snel te knipperen en de speler zou beginnen met het verzamelen van enorme aantallen punten', zegt Shane.

7. Sorry, piloot.

Dit voorbeeld staat superhoog op de griezelschaal: 'Er was een algoritme dat moest uitvogelen hoe een vliegtuig met een minimum aan kracht op een vliegdekschip landt. In plaats daarvan ontdekte het dat als het een 'enorme' kracht uitoefende, het geheugen van het programma zou overlopen en zich in plaats daarvan zou registreren als een heel 'kleine' kracht. De piloot zou doodgaan, maar hé, perfecte score.'

Zijn we dan allemaal gedoemd?

Al deze bij elkaar genomen suggereren dat mensen behoorlijk slecht zijn in het raden hoe robots de problemen zullen oplossen die we voor hen stellen, of zelfs hoe ze de problemen zullen definiëren. Betekent dat dat Shane net zo bezorgd is over het per ongeluk bouwen van moorddadige A.I. opperheren zoals Musk is? Niet echt, maar niet omdat ze er zeker van is dat menselijke programmeurs de robots die ze maken echt goed in de hand hebben. In plaats daarvan rekent ze op robotluiheid om ons te redden.

'Als programmeurs moeten we heel erg voorzichtig zijn dat onze algoritmen de problemen oplossen die we voor hen bedoelden op te lossen, geen gebruik maken van snelkoppelingen. Als er een andere, gemakkelijkere manier is om een ​​bepaald probleem op te lossen, zal machine learning die waarschijnlijk vinden', merkt ze op. 'Gelukkig voor ons is 'alle mensen doden' echt heel moeilijk. Als 'een ongelooflijk lekkere cake bakken' ook het probleem oplost en makkelijker is dan 'alle mensen doden', dan past machine learning bij cake.'