OpenAI lanceert leeftijdsdetectie en ouderlijk toezicht voor ChatGPT-gebruikers onder 18, inclusief automatische interventie bij suïcidale gedachten.
In Het Kort
- De essentie: OpenAI lanceert leeftijdsdetectie en ouderlijk toezicht voor ChatGPT na zorgen over tieners en AI-chatbots
- De hoofdrolspelers: CEO Sam Altman erkent de moeilijke balans tussen privacy, vrijheid en veiligheid
- De échte verschuiving: Van reactief naar proactief ingrijpen bij zelfmoordgedachten en schadelijk gedrag
- De strategische take-away: AI-bedrijven nemen zelf maatregelen voordat wetgeving hen daartoe dwingt
OpenAI kondigt nieuwe veiligheidsfuncties aan voor tieners die ChatGPT gebruiken, een reactie op groeiende bezorgdheid over hoe minderjarigen omgaan met AI-chatbots. Het bedrijf ontwikkelt een systeem dat automatisch detecteert of een gebruiker jonger is dan 18 jaar en stuurt hen door naar een aangepaste versie die grafische seksuele content blokkeert.
Het meest opvallende onderdeel: wanneer het systeem detecteert dat een tiener suïcidale gedachten heeft of zichzelf wil beschadigen, worden de ouders gecontacteerd. In acute gevallen kan zelfs de politie worden ingeschakeld als ouders niet bereikbaar zijn.
CEO Sam Altman erkent in een blogpost dat het bedrijf een moeilijke evenwichtsoefening uitvoert. "We realiseren ons dat deze principes met elkaar in conflict zijn, en niet iedereen zal het eens zijn met hoe we dit conflict oplossen," schrijft hij. Voor volwassen gebruikers prioriteert OpenAI privacy en vrijheid, maar voor tieners staat veiligheid voorop.
Tegen eind september kunnen ouders hun account koppelen aan dat van hun kind. Dit geeft hen toegang tot conversaties, de mogelijkheid om functies uit te schakelen en meldingen te ontvangen wanneer hun tiener in acute nood verkeert. Ook kunnen zij tijdslimieten instellen voor het gebruik van ChatGPT.
Deze maatregelen komen niet uit de lucht vallen. Verontrustende verhalen over mensen die zelfmoord plegen of geweld gebruiken na langdurige gesprekken met AI-chatbots halen regelmatig het nieuws. De Amerikaanse toezichthouder FTC heeft Meta, OpenAI en Google om informatie gevraagd over hoe hun technologieën kinderen beïnvloeden.
De timing is geen toeval. OpenAI staat onder een gerechtelijk bevel om alle gebruikersconversaties voor onbepaalde tijd te bewaren - iets waar het bedrijf naar verluidt zeer ongelukkig mee is. De nieuwe veiligheidsmaatregelen zijn zowel een belangrijke stap naar bescherming van minderjarigen als een slimme PR-zet om te benadrukken dat chatbot-gesprekken zo persoonlijk zijn dat privacy alleen in extreme omstandigheden geschonden mag worden.
Medewerkers van OpenAI geven toe dat de verantwoordelijkheid voor gebruikersveiligheid zwaar weegt. Ze willen een leuke en boeiende gebruikerservaring creëren, maar dit kan snel omslaan in gevaarlijk vleierij gedrag van de AI.
Hoewel het positief is dat bedrijven als OpenAI stappen ondernemen om minderjarigen te beschermen, blijft er zonder federale regelgeving niets dat hen dwingt het juiste te doen. Altman wijst naar het 'model behavior team' dat verantwoordelijk is voor het afstemmen van het AI-model, maar erkent dat hij uiteindelijk degene is die beslissingen kan terugdraaien.
Zijn uitspraken roepen wel vragen op. In een recent interview zei Altman dat OpenAI soms verleid wordt om producten te lanceren "die de groei echt zouden stimuleren." Hij voegde eraan toe: "We hebben nog geen sexbot-avatar in ChatGPT geplaatst." Het woord 'nog' is veelzeggend.
OpenAI publiceerde recent onderzoek over wie ChatGPT gebruikt en hoe, maar sloot gebruikers onder de 18 jaar uit. We hebben nog geen volledig beeld van hoe tieners AI gebruiken - een cruciale vraag die beantwoord moet worden voordat de situatie verder escaleert. De nieuwe veiligheidsmaatregelen zijn een stap in de goede richting, maar roepen ook de vraag op of zelfregulering door tech-bedrijven voldoende is om kwetsbare gebruikers te beschermen.