Hoofd Innoveren Het einde van de wet van Moore zal de manier waarop we over innovatie moeten denken veranderen

Het einde van de wet van Moore zal de manier waarop we over innovatie moeten denken veranderen

Uw Horoscoop Voor Morgen

In 1965, medeoprichter van Intel Gordon Moore gepubliceerd een opmerkelijk vooruitziend papier die voorspelde dat de rekenkracht elke twee jaar zou verdubbelen. Gedurende een halve eeuw is dit proces van verdubbeling zo opmerkelijk consistent gebleken dat het tegenwoordig algemeen bekend staat als: de wet van Moore en heeft de digitale revolutie aangedreven.

We zijn zelfs zo gewend geraakt aan het idee dat onze technologie krachtiger en goedkoper wordt dat we er nauwelijks bij stilstaan ​​hoe ongekend het is. We hadden zeker niet verwacht dat paarden of ploegen - of zelfs stoommachines, auto's of vliegtuigen - hun efficiëntie continu zouden verdubbelen.

hoe oud is dj drama

Desalniettemin zijn moderne organisaties zo sterk afhankelijk geworden van continue verbetering dat mensen zelden nadenken over wat het betekent en, met De wet van Moore loopt bijna af , dat wordt een probleem. In de komende decennia zullen we moeten leren leven zonder de zekerheid van de wet van Moore en opereren in een nieuw tijdperk van innovatie dat zal heel anders zijn.

De bottleneck van Von Neumann

Vanwege de kracht en consistentie van de wet van Moore zijn we technologische vooruitgang gaan associëren met processorsnelheden. Toch is dat slechts één prestatiedimensie en er zijn veel dingen die we kunnen doen om onze machines meer te laten doen tegen lagere kosten dan ze alleen te versnellen.

Een eerste voorbeeld hiervan is de van Neumann knelpunt , genoemd naar het wiskundige genie dat verantwoordelijk is voor de manier waarop onze computers programma's en gegevens op de ene plaats opslaan en berekeningen maken op een andere. In de jaren veertig, toen dit idee opkwam, was het een grote doorbraak, maar vandaag wordt het een beetje een probleem.

Het probleem is dat, vanwege de wet van Moore, onze chips zo snel werken dat in de tijd die informatie nodig heeft om heen en weer te reizen tussen chips - niet minder met de snelheid van het licht - we veel kostbare rekentijd verliezen. Ironisch genoeg zal het probleem alleen maar erger worden naarmate de chipsnelheden blijven verbeteren.

De oplossing is eenvoudig van opzet, maar ongrijpbaar in de praktijk. Net zoals we transistors op een enkele siliciumwafer hebben geïntegreerd om moderne chips te maken, kunnen we verschillende chips integreren met een methode genaamd 3D-stapelen . Als we dit kunnen laten werken, kunnen we de prestaties nog een paar generaties verhogen.

Geoptimaliseerd computergebruik

Tegenwoordig gebruiken we onze computers voor verschillende taken. We schrijven documenten, bekijken video's, bereiden analyses voor, spelen games en doen nog veel meer, allemaal op hetzelfde apparaat met dezelfde chiparchitectuur. We zijn in staat om dit te doen omdat de chips die onze computers gebruiken zijn ontworpen als technologie voor algemeen gebruik.

Dat maakt computers handig en nuttig, maar is vreselijk inefficiënt voor rekenintensieve taken. Er zijn al lang technologieën, zoals: ASIC en FPGA, die zijn ontworpen voor meer specifieke taken en, meer recentelijk, GPU's zijn populair geworden voor grafische en kunstmatige intelligentiefuncties.

Naarmate kunstmatige intelligentie op de voorgrond treedt, zijn sommige bedrijven, zoals Google en Microsoft zijn begonnen met het ontwerpen van chips die speciaal zijn ontworpen om hun eigen deep learning-tools te gebruiken. Dit verbetert de prestaties aanzienlijk, maar je moet veel chips maken om de economie te laten werken, dus dit is buiten bereik voor de meeste bedrijven.

De waarheid is dat al deze strategieën slechts tussenstops zijn. Ze zullen ons helpen om de komende tien jaar door te gaan, maar nu de wet van Moore ten einde loopt, is de echte uitdaging om met een aantal fundamenteel nieuwe ideeën voor informatica te komen.

welke nationaliteit is christina el moussa

Grondig nieuwe architecturen

In de afgelopen halve eeuw is de wet van Moore synoniem geworden met computergebruik, maar we maakten rekenmachines lang voordat de eerste microchip werd uitgevonden. In het begin van de 20e eeuw pionierde IBM eerst met elektromechanische tabulatoren, daarna kwamen vacuümbuizen en transistors voordat geïntegreerde schakelingen werden uitgevonden aan het eind van de jaren vijftig.

Vandaag zijn er twee nieuwe architecturen in opkomst die binnen de komende vijf jaar op de markt zullen worden gebracht. De eerste is kwantumcomputers , die het potentieel hebben om duizenden, zo niet miljoenen keren krachtiger te zijn dan de huidige technologie. Zowel IBM als Google hebben werkende prototypes gebouwd en Intel, Microsoft en anderen hebben actieve ontwikkelingsprogramma's.

De tweede belangrijke benadering is: neuromorfisch computergebruik , of chips gebaseerd op het ontwerp van het menselijk brein. Deze blinken uit in patroonherkenningstaken waar conventionele chips moeite mee hebben. Ze zijn ook duizenden keren efficiënter dan de huidige technologie en zijn schaalbaar tot een enkele kleine kern met slechts een paar honderd 'neuronen' en tot enorme arrays met miljoenen.

Toch hebben beide architecturen hun nadelen. Quantumcomputers moeten worden afgekoeld tot bijna het absolute nulpunt, wat hun gebruik beperkt. Beide vereisen een heel andere logica dan conventionele computers en hebben nieuwe programmeertalen nodig. De overgang zal niet naadloos zijn.

Een nieuw tijdperk van innovatie

De afgelopen 20 of 30 jaar is innovatie, vooral in de digitale ruimte, redelijk eenvoudig geweest. We konden erop vertrouwen dat technologie zich in een voorzienbaar tempo zou verbeteren en dat stelde ons in staat om met een hoge mate van zekerheid te voorspellen wat er de komende jaren mogelijk zou zijn.

Dat leidde ertoe dat de meeste innovatie-inspanningen gericht waren op toepassingen, met een sterke nadruk op de eindgebruiker. Startups die een ervaring konden ontwerpen, testen, aanpassen en snel herhalen, konden beter presteren dan grote bedrijven die veel meer middelen en technologische verfijning hadden. Dat maakte behendigheid tot een bepalend competitief kenmerk.

wanneer werd carl azuz geboren?

In de komende jaren zal de slinger waarschijnlijk terugslaan van toepassingen naar de fundamentele technologieën die ze mogelijk maken. In plaats van te kunnen vertrouwen op vertrouwde oude paradigma's, zullen we grotendeels in het rijk van het onbekende opereren. In veel opzichten zullen we opnieuw beginnen en zal innovatie er meer uitzien zoals in de jaren vijftig en zestig

Computing is slechts één gebied dat zijn theoretische grenzen bereikt. We hebben ook nodig volgende generatie batterijen om onze apparaten, elektrische auto's en het elektriciteitsnet van stroom te voorzien. Tegelijkertijd worden nieuwe technologieën, zoals genomica, nanotechnologie en robotica worden ascendant en zelfs de wetenschappelijke methode wordt in twijfel getrokken .

We gaan nu dus een nieuw tijdperk van innovatie in en de organisaties die het meest effectief zullen concurreren, zullen niet degenen zijn met het vermogen om te verstoren, maar degenen die bereid zijn om grote uitdagingen aangaan en nieuwe horizonten verkennen.