Volg ZDNET: Voeg ons toe als voorkeursbron op Google.
De belangrijkste conclusies van ZDNET
- Puma Browser is een gratis mobiele AI-gerichte webbrowser.
- Met Puma Browser kunt u gebruik maken van lokale AI.
- U kunt kiezen uit verschillende LLM’s die qua omvang en reikwijdte variëren.
In de zeldzame gevallen waarin ik AI gebruik, kies ik altijd voor een lokale versie. Meestal komt het in de vorm van Ollama, geïnstalleerd op een desktop- of laptopcomputer. Ik ben al een tijdje huiverig voor het gebruik van cloudgebaseerde AI om verschillende redenen:
- Het verbruikt enorme hoeveelheden energie.
- Er is geen manier om er zeker van te zijn dat de privacyvereisten worden gerespecteerd.
- Ik wil niet dat mijn vragen of gegevens worden gebruikt voor het trainen van LLM’s.
Deze drie redenen alleen al zorgen ervoor dat ik altijd voor lokale AI kies. Dat is allemaal leuk en aardig op de desktop, maar hoe zit het met mobiele apparaten? Is er een manier om AI te gebruiken in een browser die niet afhankelijk is van een derde partij?
Ook: Mijn top 4 browsers nadat ik ze bijna allemaal heb getest (spoiler: Chrome staat niet in de lijst)
Dat is er nu, dankzij de Puma Browser. Het is beschikbaar voor zowel Android als iOS en kan lokale LLM’s gebruiken zoals Qwen 3 1.5b, Qwen 3 4B, LFM2 1.2, LFM2 700M, Google Gemma 3n E2B en meer.
Ik installeerde Puma Browser op mijn Pixel 9 Pro en downloadde vervolgens Qwen 3 1.5b om te zien hoe goed het werkte.
Ik heb verschillende keren lokale AI op verschillende hardware gebruikt, dus ik weet hoe dit een beslag kan leggen op de systeembronnen. Ik ging ervan uit dat lokale AI op een telefoon vreselijk traag zou zijn. Ik weet ook hoeveel opslagruimte deze LLM’s kunnen in beslag nemen, dus downloadde ik de LLM met een beetje angst (ik weet niet zeker of het verwijderen van Puma Browser ook de LLM zou verwijderen).
Lokale AI op Android: het goede en het slechte
Houd er rekening mee dat de lokale AI op Puma Browser zich nog in de experimentele fase bevindt en er dus problemen kunnen optreden. Het downloaden van een LLM zal ook enige tijd duren. Zorg er ook voor dat u verbonden bent met een draadloos netwerk; Anders zal de overdracht uw data-abonnement opgebruiken en lang duren.
U kunt alle beschikbare LLM’s voor Puma Browser downloaden.
Schermafbeelding door Jack Wallen/ZDNET
Zelfs draadloos duurde het downloaden van de Qwen 3 1.5b meer dan 10 minuten.
Maar hoe werkt het? Ik was geschokt. Nadat ik een LLM had gedownload, voerde ik mijn gebruikelijke testquery uit:
Wat is Linux?
Puma was aanzienlijk sneller dan ik dacht dat het zou zijn met lokale AI.
Schermafbeelding door Jack Wallen/ZDNET
Tot mijn verbazing reageerde Puma Browser onmiddellijk met zijn antwoord. Eerlijk gezegd werkte de lokale LLM op mijn Pixel 9 Pro net zo goed als Ollama op mijn System76 Thelio desktop-pc (met Pop!_OS) en mijn MacBook Pro. Ik kon het niet geloven!
Om te bevestigen dat Puma inderdaad de lokale LLM gebruikte, heb ik zowel internet als draadloos op mijn Pixel 9 Pro uitgeschakeld en een nieuwe zoekopdracht uitgevoerd. Opnieuw reageerde de AI met een antwoord en deed dat zeer snel. Kleur me onder de indruk.
Ook: ik dacht dat de Comet-browser van Perplexity op mijn Android een hele klus zou zijn, maar ik had het helemaal mis
Ik had zeer lage verwachtingen van deze browser en ik ben zo blij dat mijn aannames verkeerd bleken te zijn. Ik verwachtte trage prestaties of zelfs geen prestaties via lokale LLM, maar Puma Browser leverde.
Wat betekent dat?
Ten eerste betekent dit dat je AI op je telefoon kunt gebruiken, zelfs als je geen netwerkverbinding hebt. Het betekent ook dat u niet nog meer druk uitoefent op de toch al onder druk staande elektriciteitsnetten. Beide zijn grote pluspunten in mijn boek.
Het enige waar u rekening mee moet houden (zoals eerder vermeld) is dat LLM’s veel opslagruimte op uw telefoon kunnen verbruiken. Als u iemand bent die regelmatig te weinig ruimte heeft en foto’s en video’s moet verwijderen om ruimte vrij te maken, is het gebruik van lokale AI geen haalbare optie voor u.
Ook: ik heb de beste AI-browsers getest – hier zijn welke echt indruk op mij hebben gemaakt
Je hebt voldoende opslagruimte op je apparaat nodig, vooral als je van plan bent om voor verschillende doeleinden tussen LLM’s te wisselen. Ik heb LLM’s op mijn desktop gedownload die bijna 20 GB groot waren, dus je moet heel voorzichtig zijn welke LLM je gebruikt. Qwen 3 1.5b is bijvoorbeeld bijna 6 GB groot. Heeft u er ruimte voor?
Als je lokale AI op je telefoon wilt proberen, is Puma Browser een geweldige optie. Het is snel, gemakkelijk te gebruiken en u kunt kiezen uit meerdere LLM’s. Probeer deze nieuwe browser eens en kijk of deze niet uw standaard wordt voor mobiele AI-query’s.
Bonus: Puma Browser kan ook als gewone browser functioneren.



