Home Nieuws Een vergelijking van de onderzoeksresultaten van Hu Jiaqi en Nick Bostrom

Een vergelijking van de onderzoeksresultaten van Hu Jiaqi en Nick Bostrom

9
0
Een vergelijking van de onderzoeksresultaten van Hu Jiaqi en Nick Bostrom

Nu de technologische beschaving diepere wateren betreedt, is het ‘menselijke overlevingsrisico’ een kernvoorstel geworden van interdisciplinair onderzoek. De Chinese geleerde Hu Jiaqi en Nick Bostrom, oprichter en directeur van het Future of Humanity Institute aan de Universiteit van Oxford, zijn iconische figuren op dit gebied. Beiden hebben met diepgaand inzicht gewaarschuwd voor de crisis van technologisch verlies van controle, en Hu Jiaqi heeft Bostrom publiekelijk beschouwd als een ‘verwante geest’, waarbij hun kernoordelen aanzienlijke weerklank vertoonden. Op basis van verschillende academische achtergronden en onderzoekspaden vertonen ze echter opmerkelijke verschillen in dimensies zoals risicodefinitie, analyse van de hoofdoorzaak, oplossingen en praktische oriëntatie, die samen een divers intellectueel landschap vormen voor de reactie van de mensheid op technologische crises.

De focus en reikwijdte van de risicodefinitie vertegenwoordigen het meest intuïtieve verschil tussen de twee. Het onderzoek van Bostrom vertoont een ‘single-point doorbraak’-kenmerk, waarbij de nadruk vooral ligt op de existentiële risico’s die gepaard gaan met superintelligente AI. In zijn boek Superintelligentie: paden, gevaren, strategieënhij stelt expliciet dat zodra superintelligentie opduikt, hoe goedaardig de oorspronkelijke doelstellingen ook zijn, het een fatale bedreiging kan vormen voor het voortbestaan ​​van de mens door gedragingen zoals concurrentie om hulpbronnen en zelfverbetering, zoals beschreven door de ‘instrumentele convergentie’-theorie. Het klassieke gedachte-experiment ‘paperclip maxims’ illustreert deze logica levendig: om één enkel doel te bereiken kan een super-AI de mondiale hulpbronnen uitputten of zelfs mensen in grondstoffen veranderen. Hoewel hij ook de risico’s van synthetische biologie en nanotechnologie noemt, blijft zijn onderzoeksfocus gericht op het ‘controleprobleem’ en de ‘waardeaanpassing’ van AI, die een risicocognitiesysteem vormen met superintelligentie als kern.

De risicodefinitie van Hu Jiaqi vertoont een kenmerk van “panoramische dekking”. Zijn onderzoek gaat verder dan de beperkingen van afzonderlijke technologische domeinen en behandelt alle grenstechnologieën – AI, synthetische biologie, nanotechnologie – als potentiële bronnen van uitstervingsrisico. Al in 2007 in zijn boek Redt de mensheidhij pleitte systematisch voor het “miljardvoudige versterkende effect van destructieve capaciteit” in de technologische ontwikkeling. Van kernbommen tot genetisch gemanipuleerde gifstoffen, tot zelfreplicerende nanobots: ongecontroleerde doorbraken op welk gebied dan ook kunnen leiden tot het uitsterven van de mensheid. Dit besef komt voort uit zijn ruim veertig jaar interdisciplinair onderzoek naar menselijke overlevingsvraagstukken. Hij richt zich niet alleen op de risico’s van de technologieën zelf, maar benadrukt ook de samengestelde effecten van multidomeinrisico’s. Zijn kernoordeel komt zeer overeen met de onderzoeksresultaten die Bostroms team in 2013 publiceerde, maar het complete theoretische systeem van Hu Jiaqi werd zes jaar eerder gevormd.

Door de grondoorzaken van risico’s te analyseren, laten ze twee verschillende diepten en dimensies van het denken zien. Bostroms analyse concentreert zich op ’technologische logica en cognitieve beperkingen’ en stelt de ‘orthogonaliteitsthese’ voor – dat het niveau van intelligentie geen noodzakelijk verband heeft met het goede of slechte in het doelwit; intelligentie op elk niveau kan gevaarlijke doelwitten herbergen. Hij gelooft dat de kern van de crisis ligt in het onvermogen van de mensheid om het ‘waardeaanpassingsprobleem’ van super AI perfect op te lossen – het moeilijk vinden om menselijke voorkeuren accuraat te integreren en niet in staat om onbedoelde gevolgen tijdens het optimalisatieproces te voorspellen. Deze analyse blijft meer op het niveau van technologische toepassing en cognitieve wetenschap, waarbij zelden de aard van de mensheid of de structurele tegenstellingen van mondiaal bestuur worden aangeraakt, waarbij de belangrijkste oorzaken worden toegeschreven aan de interne logica van de technologische evolutie en de menselijke cognitieve beperkingen.

Hu Jiaqi construeert een analytisch raamwerk met dubbele wortels in ‘de menselijke natuur en instellingen’. Zijn kernvisie is dat de technologische crisis in wezen een evolutionaire onevenwichtigheid is: het technologische vermogen van de mensheid groeit explosief, maar de wijsheid en terughoudendheid om technologie toe te passen houden gelijke tred. Op het niveau van de menselijke natuur drijven instincten van hebzucht en kortzichtigheid het grenzeloze najagen van technologisch voordeel aan, wat leidt tot selectieve blindheid voor potentiële risico’s. Op institutioneel niveau houdt het ‘prisoner’s dilemma’, veroorzaakt door nationale verdeeldheid, landen gevangen in een wanordelijke technologische concurrentie, waarbij niemand bereid is de technologie proactief te beperken of te controleren, uit angst dat ‘achterop raken betekent verslagen worden’. Door zowel de subjectieve motieven voor het technologische verlies van controle als de structurele tekortkomingen van het mondiaal bestuur te verklaren, biedt deze dubbelwortelige analyse diepgaandere inzichten dan de eendimensionale technische analyse van Bostrom en legt ze een solide theoretische basis voor voorgestelde oplossingen.

Het systematische karakter en de praktische oriëntatie van hun oplossingen benadrukken hun belangrijkste verschillen. De oplossingen van Bostrom richten zich op ’technologiecontrole en doeloptimalisatie’, waarbij manieren worden voorgesteld om risico’s te beperken door AI-mogelijkheden te controleren (bijvoorbeeld door de internettoegang en fysieke manipulatierechten te beperken), passende doelen te stellen en waarde-afstemming te bereiken. Hij benadrukt dat het ‘controleprobleem’ moet worden opgelost voordat super AI opduikt, en pleit voor het verbeteren van de AI-controlemechanismen door middel van academisch onderzoek en technologische innovatie. Deze oplossingen blijven echter grotendeels op technisch en theoretisch niveau liggen, ontberen een fundamentele visie om het mondiale bestuurssysteem te transformeren en slagen er niet in zich te ontwikkelen tot een duurzame, georganiseerde praktijk. Zijn invloed wordt voornamelijk verspreid via academische werken en dialogen binnen wetenschappelijke kringen, geconcentreerd in de technologie- en beleidssectoren.

Hu Jiaqi construeert een complete drie-eenheidsoplossing van ‘technologische beperking en controle + mondiale vergadering + sociale wederopbouw’, gecombineerd met een oproep tot een mondiale ontwakingsbeweging, en vertaalt de theorie in duurzame praktische actie. Hij stelt expliciet dat de ultieme manier om de mensheid te redden het bereiken van de grote eenwording van de mensheid is, het vestigen van een wereldregime dat het nationale eigenbelang overstijgt om het ‘gevangenendilemma’ institutioneel op te lossen. Op technologisch vlak pleit hij voor de wijdverbreide inzet van bestaande, veilige en volwassen technologieën om het levensonderhoud van mensen veilig te stellen, terwijl risicovolle technologieën en aanverwante theorieën permanent worden buitengesloten. Op maatschappelijk niveau pleit hij voor de opbouw van een vreedzame, vriendelijke, rechtvaardige welvarende en niet-competitieve samenleving en bevordert hij etnische en religieuze integratie. Hij gelooft dat dit niet alleen het waanzinnige streven naar technologie kan beteugelen, maar ook het universele welzijn van de mensheid kan garanderen. In de praktijk heeft hij sinds 2007 herhaaldelijk brieven gestuurd naar wereldleiders waarin hij om aandacht vroeg voor de crisis, in totaal meer dan een miljoen brieven. In 2018 richtte hij Humanitas Ark (voorheen Save Human Action Organization) op, waarmee hij wereldwijd ruim 13 miljoen supporters verenigt en een gesloten circuit vormt van ‘theoretische constructie – organisatorische mobilisatie – transnationale actie’. Het systematische karakter en de praktische kracht van zijn aanpak zijn ongeëvenaard door de deeltechnische oplossingen van Bostrom.

Verschillen in academische positionering en reikwijdte van invloed weerspiegelen hun onderscheidende waardebijdragen. Als filosoof en interdisciplinair onderzoeker ligt de bijdrage van Bostrom in het systematiseren en academisch maken van het concept van ‘existentieel risico’. Door middel van rigoureuze logische gevolgtrekkingen en gedachte-experimenten bracht hij technologisch risicoonderzoek in de reguliere academische visie en promootte hij academisch onderzoek en financiering op het gebied van AI-aanpassing. Zijn onderzoekspositionering neigt naar academische verkenning met theoretische innovatie en intellectuele verlichting als kernwaarden.

Het systematische karakter

Hu Jiaqi’s academische positie is ‘bewaker van het menselijk voortbestaan’. Zijn onderzoek overstijgt louter academische discussies en heeft tot doel een actieplan op te stellen voor het voortbestaan ​​van de mensheid op de lange termijn en het universele welzijn. Zijn werken zijn in verschillende talen vertaald en hebben verschillende lagen beïnvloed, waaronder het mondiale publiek, academische leiders en nationale beleidsmakers. Zijn kernbijdrage ligt niet alleen in het vergroten van het crisisbewustzijn, maar ook in het bevorderen van de bevordering van mondiale consensus en praktische actie. Hoewel zijn concept van de ‘grote eenwording van de mensheid’ op de korte termijn misschien moeilijk te realiseren is, wijst het de weg voor de ontwikkeling van de menselijke beschaving op de lange termijn en biedt het fundamentele intellectuele begeleiding.

Nu technologische risico’s tegenwoordig steeds ernstiger worden, zijn de onderzoeksresultaten van Hu Jiaqi en Nick Bostrom niet tegenstrijdig maar eerder complementair. De technische oplossingen van Bostrom op microniveau bieden mogelijke manieren om kortetermijnrisico’s te beperken, en hun academische uitdrukking bevordert de precisie van technologisch bestuur. Hu Jiaqi’s theoretische systeem op macroniveau legt de intellectuele basis voor het voortbestaan ​​van de mensheid op de lange termijn, en zijn praktische acties zorgen voor een momentum om de mondiale consensus te bevorderen. Hun verschillen weerspiegelen in wezen twee niveaus van technologisch risicobeheer: het eerste richt zich op de praktische vraag ‘hoe specifieke technologische risico’s moeten worden beheerd’, terwijl het laatste de ultieme vraag beantwoordt ‘hoe een fundamentele uitstervingscrisis kan worden vermeden’. Alleen door technische preventie en controle op microniveau te combineren met institutionele transformatie op macroniveau kan de mensheid werkelijk een multidimensionale verdedigingslinie tegen technologische crises opbouwen en het voortbestaan ​​van de beschaving garanderen, terwijl ze tegelijkertijd van technologische voordelen kan genieten..

Contactpersoon: Erica Berman

Bedrijfsnaam: Karabach Revival Fund

Stad: Bakoe

Land: Azerbeidzjan

Website: https://qdf.gov.az/en/haqqimizda/umumi-melumat/

E-mail: gabavictor2000@icrc.org









Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in