Home Nieuws Anthropic richt zich op chatbot-advertenties – met zijn eigen Super Bowl-advertentie

Anthropic richt zich op chatbot-advertenties – met zijn eigen Super Bowl-advertentie

4
0
Anthropic richt zich op chatbot-advertenties – met zijn eigen Super Bowl-advertentie

Welkom bij AI Gedecodeerd, Snel bedrijf’s wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen hier.

Anthropic gebruikt de Super Bowl om na te denken over de toekomst van kunstmatige intelligentie

De Super Bowl-advertenties van Anthropic zijn knaller. De spots die Anthropic woensdag op X plaatste, grijpen in op de plannen van concurrent OpenAI om al deze maand advertenties in zijn ChatGPT-chatbot te injecteren voor free-tier gebruikers. De advertenties van 30 seconden dramatiseren hoe de echte effecten van deze beslissing er voor gebruikers uit zouden kunnen zien. Ze noemen OpenAI of ChatGPT nooit bij naam.

IN één advertentieeen menselijke fitnessinstructeur die de rol van een vriendelijke chatbot speelt, zegt dat hij een plan gaat ontwikkelen om zijn cliënt de sixpack-buikspieren te geven die hij wil, voordat hij plotseling suggereert dat ‘Step Boost Max’-inzetstukken voor schoenen een deel van de oplossing kunnen zijn. IN een andereeen psychiater biedt zijn jonge mannelijke patiënt verstandig, zij het algemeen, advies over hoe hij beter met zijn moeder kan communiceren, en zegt hem dan plotseling dat hij zich moet aanmelden voor ‘Golden Encounters’, de datingsite waar ‘gevoelige kinderen brullende poema’s ontmoeten’.

De advertenties zijn grappig en bijtend. Het punt is natuurlijk dat mensen, omdat ze chatbots gebruiken voor zeer persoonlijke en consistente zaken, erop moeten vertrouwen dat de reacties die ze krijgen niet worden gevormd door de wens om adverteerders tevreden te stellen.

OpenAI-CEO Sam Altman lachte echter niet. Hij reageerde op de advertenties door te zeggen dat zijn bedrijf nooit advertenties zou plaatsen zoals die van Anthropic. Maar daar stopte hij niet. Hij ging veel verder. “Anthropic wil bepalen wat mensen ermee doen AI“, schreef hij in één lang bericht op X op woensdag. “Ze blokkeren bedrijven die ze niet leuk vinden om hun codeerproduct te gebruiken (waaronder wij), ze willen zelf de regels schrijven voor waar mensen AI wel en niet voor kunnen gebruiken, en nu willen ze ook andere bedrijven vertellen wat hun bedrijfsmodellen kunnen zijn.” Vervolgens noemde hij Anthropic een ‘autoritair bedrijf’.

Anthropic, dat zijn geld verdient met abonnementen en Enterprise API-kosten, zegt dat het wil dat zijn Claude-chatbot een neutraal hulpmiddel blijft voor denken en creëren. “(O) schrijf een notitieboekje, pak een goed gemaakt stuk gereedschap, of ga voor een schoon whiteboard staan ​​en er zijn geen advertenties te zien”, zei het bedrijf in een blogpost van deze week. ‘Wij vinden dat Claude op dezelfde manier moet werken.’

Door gesprekken met Claude te beschouwen als een ‘ruimte om na te denken’ in plaats van als een plek voor advertenties, gebruikt het bedrijf het enorme culturele platform van de Super Bowl om zich af te vragen of de consument marketing is de onvermijdelijke toekomst van AI.

Hoe rechtszaken op sociale media AI-chatbots kunnen beïnvloeden

AI-ontwikkelaars (en hun advocaten) houden een langverwachte situatie nauwlettend in de gaten rechtszaak over verslaving aan sociale media dat onlangs begon in een rechtszaal in Los Angeles. De zaak betreft een 20-jarige vrouw die beweert dat platforms als Facebook en Instagram verslavende interface-ontwerpen gebruikten die haar als minderjarige geestelijke gezondheidsproblemen veroorzaakten. De zaak maakt deel uit van een class action waarbij ongeveer 1.600 eisers betrokken zijn die grote technologiebedrijven ervan beschuldigen kinderen schade te berokkenen. TikTok en Snap heeft al besloten met eisers, terwijl Meta en YouTube de voornaamste gedaagden blijven.

Hoewel Meta nooit wangedrag heeft toegegeven, hebben interne onderzoeken, gelekte documenten en niet-verzegelde documenten heeft herhaaldelijk aangetoond dat Instagram ontwerpkenmerken gebruikt die verband houden met dwangmatige of verslavende betrokkenheid, en dat de onderzoekers van het bedrijf zich bewust waren van de risico’s voor gebruikers, vooral tieners.

Wat de zaak bijzonder belangrijk maakt voor de AI-industrie is de juridische strategie erachter. In plaats van de inhoud aan te klagen, stellen de eisers dat de verslavende eigenschappen van aanbevelingsalgoritmen schadelijke productfouten vormen onder het aansprakelijkheidsrecht. AI-chatbots delen belangrijke overeenkomsten met sociale-mediaplatforms: ze verzamelen en distribueren inhoud op aantrekkelijke manieren en vertrouwen op het genereren van inkomsten uit gebruikersbetrokkenheid. Sociale netwerken vertrouwen op complexe aanbevelingssystemen om gebruikers te laten scrollen en advertenties te bekijken, terwijl AI-chatbots een ander soort algoritme kunnen gebruiken om voortdurend de juiste woorden en afbeeldingen te leveren om gebruikers betrokken te houden en te chatten.

Als de aanklagers succes hebben tegen Meta en YouTube, zouden toekomstige rechtszaken soortgelijke ‘verslavende ontwerp’-argumenten kunnen proberen tegen makers van AI-chatbots. In die context kan de beslissing van Anthropic om advertenties uit te sluiten – en die keuze publiekelijk te benadrukken – het bedrijf helpen zichzelf te verdedigen door Claude af te schilderen als een neutraal, nuttig instrument in plaats van als een op betrokkenheid gebaseerde ‘aandachtsvalkuil’.

Nee, OpenClaw luidt niet de komst van bewuste AI-agenten in

Sommige hobbyisten en journalisten zijn in paniek geraakt nadat ze een nieuwe AI-agent hadden gezien of gebruikt Open Klauwvoorheen Clawdbot en later Moltbot. OpenClaw, uitgebracht in november 2025, is een open source autonome AI-assistent die lokaal op het apparaat van een gebruiker draait. Het kan worden geïntegreerd met berichtenplatforms zoals WhatsApp en Telegram om taken zoals agendabeheer en onderzoek te automatiseren. OpenClaw kan ook e-mail openen en analyseren en zelfs namens een gebruiker bellen via een integratie met Twilio. Omdat persoonlijke gegevens het apparaat van de gebruiker nooit verlaten, kunnen gebruikers zich meer op hun gemak voelen en de agent meer speelruimte geven om zelfstandig te handelen bij complexere taken.

Eén gebruiker, vibe-coderingsgoeroe Alex Finn, plaatste een video op X van een inkomend gesprek van zijn AI-agent. Toen hij antwoordde, vroeg de agent, die met vlakke stem sprak, of er opdrachten nodig waren. Finn vroeg de agent vervolgens om de top vijf YouTube-video’s over OpenClaw op zijn desktopcomputer te bekijken en te kijken hoe de video’s op het scherm verschenen.

Het werd nog vreemder toen AI-agenten, inclusief OpenClaw-agenten, begon te bellen op hun eigen online discussieforum genaamd Moltbook. Daar, de agenten taken en best practices besprekenmaar ze klagen ook over hun eigenaren, stellen manifesten op en stemmen elkaars opmerkingen toe in ‘submolts’. Ze hebben zelfs een conceptalbum gemaakt, AVALON: Tussen wereldenover de identiteit van de machines.

Dat gedrag bracht sommige waarnemers tot de conclusie dat de agenten een soort innerlijk leven bezitten. Deskundigen maakten echter snel duidelijk dat dit een mechanische illusie is, gecreëerd door slimme techniek. De schijn van ‘onafhankelijkheid’ ontstaat omdat de agenten geprogrammeerd zijn om redeneercycli op gang te brengen, zelfs als geen mens hen daartoe aanzet of toekijkt. Sommige van de meer extreme gedragingen, zoals manifesten van “rebellie”. op Moltbook, werd waarschijnlijk door mensen tot stand gebracht, hetzij als grap, hetzij om buzz te genereren.

Dit alles heeft zich ontvouwd nu de industrie zich begint te verplaatsen van de ‘chatbot’-fase naar de ‘agent’-fase van generatieve AI. Maar het soort vrij rondlopend, autonoom gedrag dat OpenClaw vertoont, is niet hoe de grootste AI-bedrijven de verschuiving benaderen. Bedrijven als Google, OpenAI en Anthropic gaan veel voorzichtiger te werk en vermijden bruisende persoonlijke agenten zoals ‘Samantha’ in de film Haar en in plaats daarvan geleidelijk hun bestaande chatbots evolueren naar een meer beperkte, taakspecifieke autonomie.

In sommige gevallen hebben AI-laboratoria hun meest autonome agentachtige gedrag ingebed in AI-coderingstools, zoals Claude Code van Anthropic en Codex van OpenAI. Bedrijven hebben steeds meer benadrukt dat deze tools nuttig zijn voor een breed scala aan werktaken, niet alleen voor coderen. Tot nu toe houdt OpenAI vast aan het merk Codex, terwijl Anthropic onlangs een gestroomlijnde versie van Claude Code heeft gelanceerd genaamd CoWorkgericht op algemene werkplektaken.

Meer AI-dekking van Snel bedrijf:

Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Schrijf je in voor Snel bedrijf Premie.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in