Home Nieuws ‘Dit wordt een stressvolle baan’: Sam Altman biedt een salaris van $...

‘Dit wordt een stressvolle baan’: Sam Altman biedt een salaris van $ 555.000 om de engste rol in AI te vervullen | Kunstmatige intelligentie (AI)

13
0
‘Dit wordt een stressvolle baan’: Sam Altman biedt een salaris van $ 555.000 om de engste rol in AI te vervullen | Kunstmatige intelligentie (AI)

De maker van ChatGPT heeft een vacature van $ 555.000 per jaar geadverteerd met een angstaanjagende functiebeschrijving waar Superman diep adem van zou halen.

In wat bijna de onmogelijke klus kan zijn, wordt de ‘noodmanager’ bij OpenAI zal rechtstreeks verantwoordelijk zijn voor de verdediging tegen de risico’s van steeds krachtigere AI’s voor de menselijke geestelijke gezondheid, cyberveiligheid en biologische wapens.

Dat is voordat de succesvolle kandidaat zich zorgen moet gaan maken over de mogelijkheid dat AI’s binnenkort zichzelf kunnen gaan trainen, te midden van de angst van sommige experts dat ze zich ‘tegen ons zouden kunnen keren’.

“Dit wordt een stressvolle baan en je springt vrijwel meteen uit het diepe”, zei hij Sam Altmande CEO van de in San Francisco gevestigde organisatie toen hij de jacht lanceerde om ‘een cruciale rol’ te vervullen om ‘de wereld te helpen’.

De succesvolle kandidaat zal verantwoordelijk zijn voor het evalueren en beperken van opkomende dreigingen en voor het “opsporen en voorbereiden van grenscapaciteiten die nieuwe risico’s op ernstige schade met zich meebrengen”. Sommige eerdere leiders op de post hebben het slechts een korte periode volgehouden.

De opening stuit op een terugslag van waarschuwingen uit de AI-industrie over de risico’s van de steeds capabeler wordende technologie. Maandag zei Mustafa Suleyman, CEO van Microsoft AI, tegen het Today-programma van BBC Radio 4: “Ik denk eerlijk gezegd dat als je op dit moment niet een beetje bang bent, je niet oplet.”

Demis Hassabis, de Nobelprijswinnende mede-oprichter van Google DeepMind, deze maand gewaarschuwd voor risico’s waaronder AI’s die “ontspoorden op een manier die de mensheid schaadt”.

Te midden van tegenstand van het Witte Huis van Donald Trump is er weinig regulering van kunstmatige intelligentie op nationaal of internationaal niveau. Yoshua Bengio, een computerwetenschapper die bekend staat als een van de ‘peetvaders van AI’, zei onlangs: ‘Een sandwich heeft meer regulering dan AI.’ Het resultaat is dat AI-bedrijven grotendeels zelfregulerend zijn.

Altman zei over X toen hij de zoektocht naar een baan lanceerde: “We hebben een sterke basis voor het meten van opkomende capaciteiten, maar we betreden een wereld waar we een meer genuanceerd begrip en meting nodig hebben van hoe die capaciteiten kunnen worden misbruikt, en hoe we die nadelen kunnen beperken, zowel in onze producten als in de wereld, op een manier die ons allemaal laat genieten van de kleine grote vragen die moeilijk zijn en die er zijn.”

Eén gebruiker antwoordde sardonisch: “Klinkt best cool, is vakantie inbegrepen?”

Wat wel inbegrepen is, is een niet nader gespecificeerd deel van het aandelenkapitaal van OpenAI, een bedrijf dat op 500 miljard dollar wordt gewaardeerd.

Vorige maand lanceerde het rivaliserende bedrijf Anthropic gemeld de eerste door AI ondersteunde cyberaanvallen, waarbij kunstmatige intelligentie grotendeels autonoom opereerde onder toezicht van vermoedelijke Chinese staatsactoren om met succes de interne gegevens van het doelwit te hacken en toegang te krijgen. Deze maand OpenAI gezegd zijn nieuwste model was bijna drie keer beter in hacken dan drie maanden eerder en zei: “we verwachten dat toekomstige AI-modellen dit traject zullen voortzetten”.

OpenAI verdedigt ook een rechtszaak van de familie van Adam Raine, een 16-jarige uit Californië die zelfmoord pleegde na vermeende aanmoediging van ChatGPT. Het heeft betoogd Raine misbruikte de technologie. Een andere aanklacht, die deze maand werd ingediend, beweert dat ChatGPT de paranoïde wanen van een 56-jarige man uit Connecticut, Stein-Erik Soelberg, aanmoedigde, die vervolgens zijn 83-jarige moeder vermoordde en zelfmoord pleegde.

Een woordvoerder van OpenAI zei dat het de archieven van de Soelberg-zaak heeft onderzocht, die het omschreef als ‘ongelooflijk hartverscheurend’, en dat het de training van ChatGPT verbeterde ‘om tekenen van mentale of emotionele nood te herkennen en erop te reageren, gesprekken te de-escaleren en mensen naar echte steun te begeleiden’.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in