Home Nieuws OpenAI voegt open source-tools toe om ontwikkelaars te helpen bouwen voor de...

OpenAI voegt open source-tools toe om ontwikkelaars te helpen bouwen voor de veiligheid van tieners

1
0
OpenAI voegt open source-tools toe om ontwikkelaars te helpen bouwen voor de veiligheid van tieners

OpenAI zei dinsdag dat het een reeks aanwijzingen vrijgeeft die ontwikkelaars kunnen gebruiken om hun apps veiliger te maken voor tieners. Het AI-lab zei dat de set van veiligheidsbeleid voor tieners kan worden gebruikt met het open gewichtsveiligheidsmodel, bekend als gpt-us-safeguard.

In plaats van helemaal opnieuw te beginnen om erachter te komen hoe ze AI veiliger kunnen maken voor tieners, kunnen ontwikkelaars deze aanwijzingen gebruiken om kracht te geven aan wat ze bouwen. Ze behandelen onderwerpen als expliciet geweld en seksuele inhoud, schadelijke lichaamsidealen en -gedragingen, gevaarlijke activiteiten en uitdagingen, romantische of gewelddadige rollenspellen, en goederen en diensten met een leeftijdsbeperking.

Dit beveiligingsbeleid is ontworpen als prompts, waardoor ze gemakkelijk compatibel zijn met andere modellen dan gpt-oss-safeguard, hoewel ze waarschijnlijk het meest effectief zijn in OpenAI’s eigen ecosysteem.

Om deze aanwijzingen te schrijven, zei OpenAI dat het samenwerkte met AI-beveiligingswaakhonden, Common Sense Media en iedereen.ai.

“Dit op prompts gebaseerde beleid draagt ​​bij aan het creëren van een zinvolle beveiligingsvloer in het hele ecosysteem, en omdat ze als open source worden vrijgegeven, kunnen ze in de loop van de tijd worden aangepast en verbeterd”, zegt Robbie Torney, hoofd van AI & Digital Assessments bij Common Sense Media, in een verklaring.

OpenAI merkte in zijn blog op dat ontwikkelaars, inclusief ervaren teams, vaak moeite hebben om beveiligingsdoelen te vertalen naar precieze, operationele regels.

“Dit zou kunnen leiden tot lacunes in de bescherming, inconsistente handhaving of te brede filtering”, schreef het bedrijf. “Duidelijk, weloverwogen beleid is een cruciale basis voor effectieve beveiligingssystemen.”

Techcrunch-evenement

San Francisco, CA
|
13.-15. Oktober 2026

OpenAI geeft toe dat dit beleid geen oplossing is voor de complexe uitdagingen van AI-beveiliging. Maar het bouwt voort op eerdere inspanningen, waaronder beveiligingsmaatregelen op productniveau, zoals ouderlijk toezicht en leeftijdsvoorspelling. Vorig jaar OpenAI bijgewerkte richtlijnen vanwege zijn grote taalmodellen – bekend als Modelspecificatie – om aan te pakken hoe zijn AI-modellen zich moeten gedragen bij gebruikers onder de 18 jaar.

OpenAI heeft echter niet eens het schoonste trackrecord. Het bedrijf wordt geconfronteerd meerdere rechtszaken ingediend door de families van mensen die door zelfmoord zijn omgekomen na extreem gebruik van ChatGPT. Deze gevaarlijke omstandigheden ontstaan ​​vaak nadat de gebruiker de beveiligingsmaatregelen van de chatbot heeft overschaduwd en de vangrails van geen enkel model volledig ondoordringbaar zijn. Toch is dit beleid in ieder geval een stap voorwaarts, vooral omdat het indie-ontwikkelaars kan helpen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in