Gavin McNamara heeft zijn toetsenbord opgegeven en brengt de hele dag door met praten in plaats van schrijven.
Hij praat urenlang op zijn computer en telefoon, verzendt e-mails, schrijft presentaties, post op LinkedIn en codeert zelfs gesprekken met behulp van een AI-dicteerapp van de San Francisco-startup Wispr Flow.
De AI tekent, formatteert en past zijn wandeling aan tot een samenhangende kopie. McNamara gebruikt gemiddeld 125 woorden per minuut, wat tweemaal de gemiddelde typsnelheid is.
“Op dit moment doe ik alles wat gedaan kan worden door te schrijven, door te praten”, zegt de 32-jarige oprichter van softwarebureau Why Not Us. “Ik ben alleen maar aan het praten.”
In 77 apps heeft hij de afgelopen vijf maanden bijna 300.000 woorden gedicteerd – het equivalent van het schrijven van drie romans.
Tech-titanen en startups uit Californië lopen voorop in een beweging om AI en de grote taalmodellen waarop ze zijn gebaseerd te gebruiken om mensen ertoe aan te zetten met technologie te communiceren met behulp van hun stem in plaats van hun vingers.
“AI en LLM’s hebben de dynamiek veranderd”, zegt CJ Pais, de in San Diego gevestigde maker van de gratis spraak-naar-tekst-dicteerapp Handy. “Het is veel sneller om je stem te gebruiken dan om te typen.”
Er is een mix van onafhankelijke ontwikkelaars en startups ontstaan, waaronder Handy, Wispr Flow en Willow uit San Fransico en anderen, om nauwkeurige steminteractie met kunstmatige intelligentie te bieden.
De grootste namen in de technologie creëren ook nieuwe manieren waarop mensen met AI kunnen samenwerken. De nieuwste slimme bril van Meta is afhankelijk van stem. OpenAI en Meta hebben verschillende persoonlijkheden ontworpen voor de voicechat van hun bot. Zelfs Alexa van Amazon en Siri van Apple ondergaan AI-upgrades waarvan de bedrijven verwachten dat ze ervoor zullen zorgen dat iedereen veel meer met hun technologie gaat praten.
Deze gratis en betaalde methoden voor het gebruik van gesproken woord met computers hebben miljoenen gebruikers aangetrokken, waaronder codeerders, uitvoerend assistenten, advocaten, makers van inhoud en artsen. Sommige optimisten zijn van mening dat het toetsenbord verouderd kan raken.
“Ik ben blij om aan te kondigen dat we toetsenborden hebben verwijderd van de meest prestigieuze televisieprijzen ter wereld”, zegt Allan Guo, de oprichter van Willow, in een bericht op LinkedInen merkt op dat het Emmy Awards-team Willow’s stemdictatie gebruikte om Slack-berichten te verzenden en de inbox sneller leeg te maken ter voorbereiding op de prijzen van 2026.
Door de jaren heen hebben grote technologiebedrijven dat gedaan aangepast veel van hun producten met voice-first-mogelijkheden – voor het gemak. De huidige draai van stem als toegankelijkheidsfunctie naar een productiviteitstool.
Eind 2022 kwam de maker van ChatGPT begon onbelemmerde toegang weg te geven voor zijn automatische spraakherkenningsmodel genaamd Whisper, getraind op 680.000 uur aan meertalige gegevens. OpenAI deelde de technologie voor nauwkeurige audiotranscriptie, ooit een goed bewaard groot technisch geheim. Iedereen kon nu gratis AI-transcriptie van hoge kwaliteit downloaden en uitvoeren op hun laptop.
De nieuwe golf AI-dicteerapps gebruikt Whisper als basis en bouwt daarop voort om live dicteren aan te bieden. Hoewel er gratis alternatieven zijn, kosten betaalde abonnementen tussen de $ 8 en $ 12 per maand.
Door AI aangedreven dicteren krijgt nu voet aan de grond onder programmeurs en gewone gebruikers, waardoor mensen tegen hun laptops gaan praten. Of het nu gaat om het schrijven van e-mails, het verzenden van sms-berichten, het ontwerpen van een website of het geven van taken aan AI’s: early adopters zeggen dat dicteren hen in staat stelt sneller te werken, helderder te denken en productiever te zijn.
“De mensen die de stem op grote schaal hebben omarmd, gaan niet meer terug. Als je eenmaal twintig uur per week in je laptop praat, voelt typen als wrijving”, zegt Naveen Naidu, algemeen directeur van de in New York gevestigde spraakdictatie-app Monologue. “Waar het volgens mij naartoe gaat: de stemming wordt een delegatieslag. Jij spreekt je mening uit en er gebeuren dingen.”
Deze nieuwe AI-dicteerapps maken gebruik van die van Apple geavanceerde chips op iPhones en Macs om privédictaten op het apparaat uit te voeren.
Geoffrey Huntley, een onafhankelijke softwareontwikkelaar, schakelde in juni bijna volledig over op Labour.
Hij start projecten vaak door een stemprompt te openen en de AI te vragen hem te interviewen over zijn zorgen en projectvereisten voordat er code wordt gegenereerd.
“Ik praat ermee alsof ik in een jazzband aan het riffs ben, achteruit, vooruit, achteruit, vooruit”, zei Huntley. Deze vocale dans helpt de specificaties te verfijnen, waarna de AI het stuur overneemt, en bouwt software.
Naast coderen gebruikt Huntley stem om ‘het te laten scheuren’ wanneer ze ideeën of berichten voor blogposts vastlegt met behulp van apps zoals Superfluisteraar of Whisper Flow om een ”eerste dump” van gedachten te krijgen voordat u naar een toetsenbord gaat voor de definitieve bewerking.
Een groeiend aantal softwareontwikkelaars in Silicon Valley dicteert urenlang codeerinstructies in plaats van te typen. De combinatie van snel voortschrijdende AI-agenten waarvoor kan worden gecodeerd uurmet steminvoer die gedachten sneller vastlegt dan typen, heeft hun productiviteit verhoogd.
De zelfbenoemde ‘vibe coder’, McNamara, bouwde binnen enkele maanden meer dan 25 webapps, een ontwikkelingssnelheid die onmogelijk zou zijn zonder gesproken instructies.
“Ik denk niet dat (typen) op welke manier dan ook effectief of efficiënt zou zijn om daar zo snel te komen als toen ik sprak”, zei McNamara.
Hij gebruikte een kronkelend gesprek en een paar uur om de AI op te bouwen Spruit geschenkeneen cadeaulijst voor kinderen en een app voor Beoordeel alle items via foto’s.
Zeker, AI kan fouten maken en haar werk moet worden gecontroleerd.
Ondertussen heeft de wijdverbreide adoptie nieuwe ergernissen met zich meegebracht, omdat zelfs ervaren gebruikers zich ongemakkelijk voelen bij het praten tegen hun laptops. Drukke open kantoren zijn er niet voor bedoeld dat veel mensen tegelijkertijd met hun computers kunnen praten.
“Ik hou van stem, maar niet in een kantooromgeving”, zei er een gebruiker de X. “Ik hou er niet van om langs andere mensen heen te praten. Ik zou het in een gesloten kantoor doen of in mijn auto naar mijn werk gaan.”
McNamara draagt een koptelefoon, zodat mensen aannemen dat hij aan het bellen is.
“Het lijkt op de sociale hack die ik heb”, zei hij.
Hoewel het nog te vroeg is om te zeggen of en wanneer het Qwerty-toetsenbord na tickertape en faxmachines in veroudering zal raken, versnelt het tempo richting spraak steeds sneller, zegt Dylan Fox, oprichter van het in San Francisco gevestigde Assembly AI, dat audiomodellen aan bedrijven aanbiedt.
“We staan zeker aan het begin van wat wij beschouwen als deze tien- tot honderdvoudige toename van de vraag naar spraak, AI-toepassingen en interfaces”, zei hij.
Voor de programmeur, McNamara, heeft het meer praten met chatbots hem tot een betere metgezel gemaakt.
Hij was vroeger slecht in het beantwoorden van sms-berichten. Nu keert hij onmiddellijk terug naar zijn vrienden.
“Ik reageer zo snel, ze zeggen: ‘Wie is deze man?'” zei hij.


