Skip to main content

Hvad er den teknologiske singularitet?

Den teknologiske singularitet eller simpelthen singularitet er et mangesidet koncept inden for futurisme med adskillige overlappende og undertiden modstridende definitioner.Den mest rigtige og fremtrædende definition af singulariteten blev givet af Vernor Vinge i hans essay, Den kommende teknologiske singularitet .Det henviser til det punkt, hvor overmenneskelig intelligens skabes teknologisk.Disse overmenneskelige intelligenser kunne derefter anvende deres hjernekraft og ekspertise til opgaven med at skabe yderligere eller mere magtfulde overmenneskelige intelligenser, hvilket resulterede i en sneboldeffekt med konsekvenser ud over vores nuværende evne til at forestille sig.

Udtrykket teknologisk singularitet blev opfundet ved analogi med singulariteten iMidten af et sort hul, hvor naturens kræfter bliver så intense og uforudsigelige, at vores evne til at beregne stoffet under disse omstændigheder falder til nul.Ofte nævnt i forbindelse med ideen om overmenneskelig intelligens i dialoger med singularitet er forestillingen om at fremskynde teknologisk forandring.Nogle har hævdet, at når skråningen af teknologiske fremskridt øges, vil den kulminere i en asymptot, der visuelt visuelt som en matematisk singularitet.

Imidlertid er denne opfattelse af singulariteten ikke den samme som Vinge havde til hensigt;Under henvisning til fremkomsten af overmenneskelig intelligens sammen med overmenneskelige tænkningshastigheder.(Inklusive smarthed, evne til at forstå og skabe koncepter, omdanne data til teorier, lave analogier, være kreative og så videre.) Selvom overmenneskelige intelligenser, der skaber yderligere overmenneskelige intelligenser, faktisk ville resultere i accelerationen af teknologisk fremgang, ville fremskridt ikke blive uendelige, villei den forstand, at en matematisk singularitet antyderVær nøjagtig.En overmenneskelig intelligens kan være i stand til at mode en fungerende supercomputer ud af billige og let tilgængelige komponenter eller udvikle fuldgyldig nanoteknologi med intet andet end et atomkraftmikroskop.Da evnen til en overmenneskelig intelligens til at designe og fremstille teknologiske gadgets hurtigt ville overgå den bedste indsats fra menneskelige ingeniører, kunne en overmenneskelig intelligens meget vel være den sidste opfindelse, som menneskeheden nogensinde har brug for.På grund af deres overmenneskelige geni og de teknologier, de hurtigt kunne udvikle sig, kan handlingerne om intelligenser, der kommer ud af en teknologisk singularitet, resultere i enten udryddelse eller befrielse af hele vores arter, afhængigt af holdningerne til de mest magtfulde overmenneskelige intelligenser over for mennesker.

Oxford -filosof Nick Bostrom, direktør for

Oxford Future of Humanity Institute

og den verdenstranshumanistiske organisation , hævder, at den måde, superhuman intelligenser behandler mennesker, vil afhænge af deres oprindelige motiver i øjeblikket af deres skabelse.En venlig overmenneskelig intelligens ville i at ønske at bevare sin venlighed være en slags (eller venligere) versioner af sig selv, da selvforbedringsspiralen fortsatte.Resultatet kan være et paradis, hvor overmenneskelige intelligenser løser verdens problemer og tilbyder konsensus intelligensforbedring til mennesker.På den anden side ville en ondsindet eller ligeglad overmenneskelig intelligens sandsynligvis producere mere af det samme, hvilket resulterer i vores utilsigtede eller bevidst ødelæggelse.Af disse grunde kan den teknologiske singularitet være den eneste vigtigste milepæl, som vores art nogensinde vil konfrontere. Flere stier til overmenneskelig intelligens er blevet foreslået af singularitetsanalytikere og fortalere.Den første er IA eller

intelligensforstærkning

, der tager et eksisterende menneske og omdanner hende til en ikke -menneskelig BeiNg gennem neurokirurgi, hjerne-computer-grænseflade eller måske endda hjernens hjerne-grænseflade.Den anden er AI eller kunstig intelligens , skabelsen af et dynamisk kognitivt system, der overgår mennesker i dets evne til at danne teorier og manipulere virkeligheden.Når en af disse teknologier vil nå tærskelniveauet for raffinement, der er nødvendig for at producere overmenneskelig intelligens, er usikker, men en række forskellige eksperter, herunder Bostromville antage, og fordi de oprindelige motiveringer fra den første overmenneskelige intelligens kan bestemme skæbnen for vores menneskelige arter, ser nogle filosof-aktiverende (entalligeDer kan gøres fremskridt i dag.I 2000 blev

Singularity Institute for Artificial Intelligence

grundlagt af Eliezer Yudkowsky til at arbejde udelukkende mod dette mål.