De Duitse AI-startup Black Forest Labs (BFL), opgericht door voormalige Stability AI-ingenieursblijft zijn suite van open source AI-beeldgeneratoren uitbreiden met de release van FLUX.2 (klein)een nieuw paar kleine modellen – een open en een niet-commercieel – waarbij de nadruk wordt gelegd op snelheid en lagere rekenvereisten, waarbij de modellen afbeeldingen genereren in minder dan een seconde op een Nvidia GB200.
(klein)-serie die gisteren is vrijgegeven, bevat twee primaire parametertellingen: 4 miljard (4B) en 9 miljard (9B).
De modelgewichten zijn beschikbaar Knuffel gezicht en codeer aan Github.
Terwijl de grotere modellen in de FLUX.2-familie ((max) en (pro)), gepubliceerd in november 2025(klein) verlegt de grenzen van fotorealisme en “grounding search”-mogelijkheden en is speciaal ontworpen voor consumentenhardware en latentie-kritieke workflows.
Goed nieuws voor bedrijven is dat de 4B-versie beschikbaar is onder een Apache 2.0-licentie, wat betekent dat zij – of welke organisatie of ontwikkelaar dan ook – de (kleine) modellen voor commerciële doeleinden kunnen gebruiken zonder BFL of welke tussenpersoon dan ook een cent te betalen.
Maar een aantal AI-beeld- en mediacreatieplatforms, waaronder Fal.ai zijn begonnen het tegen extreem lage kosten aan te bieden via hun application programming interfaces (API’s) en als een direct-to-user tool. Het heeft al veel lof gekregen van early adopters vanwege zijn snelheid. Wat het mist aan algehele beeldkwaliteit, lijkt het goed te maken door de snelle generatiecapaciteit, de open licentie, de betaalbaarheid en de kleine voetafdruk – wat ten goede komt aan bedrijven die beeldmodellen op hun eigen hardware of tegen extreem lage kosten willen draaien.
Dus hoe heeft BFL het gedaan en hoe kan het u ten goede komen? Lees verder voor meer informatie.
De “Pareto-grens” van latentie.
De technische filosofie achter (klein) is wat BFL-documentatie beschrijft als het definiëren van de “Pareto-grens” van kwaliteit versus latentie. Simpel gezegd: ze hebben geprobeerd de grootst mogelijke visuele betrouwbaarheid in een model te stoppen dat klein genoeg is om zonder merkbare vertraging op een gaming-pc thuis te draaien.
De door het bedrijf vrijgegeven prestatiestatistieken schetsen een beeld van een model dat is gebouwd voor interactiviteit in plaats van alleen maar batchgeneratie.
Volgens officiële cijfers van Black Forest Labs zijn de (kleine) modellen in staat om op moderne hardware in minder dan 0,5 seconde afbeeldingen te genereren of te bewerken.
Zelfs op standaard consumenten-GPU’s zoals een RTX 3090 of 4070 is het 4B-model ontworpen om comfortabel binnen ongeveer 13 GB VRAM te passen.
Deze snelheid wordt bereikt door middel van “destillatie”, een proces waarbij een groter, complexer model een kleiner, efficiënter model “leert” door de output ervan in minder stappen te benaderen. De gedestilleerde (klein) varianten vereisen slechts vier stappen om een beeld te genereren. Dit transformeert het generatieproces effectief van een koffiepauzetaak naar een vrijwel onmiddellijke taak, waardoor wat BFL op X (voorheen Twitter) beschrijft als ‘het ontwikkelen van ideeën van 0 → 1’ in realtime mogelijk wordt gemaakt.
Onder de motorkap: uniforme architectuur
Historisch gezien waren voor het genereren en bewerken van afbeeldingen vaak verschillende pijplijnen of complexe adapters (zoals ControlNets) nodig. FLUX.2 (klein) probeert deze te verenigen.
De architectuur ondersteunt native tekst-naar-afbeelding, bewerking met één referentie en compositie met meerdere referenties zonder van model te hoeven wisselen.
Volgens de documentatie die op GitHub is gepubliceerd, ondersteunen de modellen:
-
Meerdere referenties bewerken: Gebruikers kunnen maximaal vier referentieafbeeldingen uploaden (of tien op de speelplaats) om de stijl of structuur van de uitvoer te bepalen.
-
Hex-code kleurcontrole: Een vaak voorkomend pijnpunt voor ontwerpers is het verkrijgen van ‘de exacte kleur rood’. De nieuwe modellen accepteren specifieke hexadecimale codes in prompts (bijvoorbeeld #800020) om een nauwkeurige kleurweergave af te dwingen.
-
Gestructureerde prompt: Het model parseert JSON-achtige gestructureerde invoer in strak gedefinieerde composities, een functie die duidelijk gericht is op programmatische generatie en bedrijfspijplijnen.
De licentieverdeling: open gewichten versus open source
Voor startups en ontwikkelaars die voortbouwen op de technologie van BFL is het begrijpen van het licentielandschap van deze release van cruciaal belang. BFL heeft een gecompartimenteerde strategie aangenomen die het gebruik van ‘hobbyisten/onderzoekers’ scheidt van ‘commerciële infrastructuur’.
-
FLUX.2 (klein) 4B: Uitgebracht onder Apache 2.0. Dit is een vrije softwarelicentie die commercieel gebruik, wijziging en herdistributie mogelijk maakt. Als u een betaalde app, een SaaS-platform of een game bouwt die AI-generatie integreert, kunt u het 4B-model royaltyvrij gebruiken.
-
FLUX.2 (klein) 9B & (ontwikkelaar): Uitgegeven onder de FLUX niet-commerciële licentie. Deze schalen staan open voor onderzoekers en hobbyisten om te downloaden en ermee te experimenteren, maar kunnen zonder aparte overeenkomst niet voor commerciële toepassingen worden gebruikt.
Dit onderscheid positioneert het 4B-model als een directe concurrent van andere open-weight-modellen zoals Stable Diffusion 3 Medium of SDXL, maar met een modernere architectuur en een tolerante licentie die juridische onduidelijkheid voor startups wegneemt.
Ecosysteemintegratie: ComfyUI en meer
BFL is zich er duidelijk van bewust dat een model slechts zo goed is als de tools waarmee het wordt uitgevoerd. Gelijktijdig met de introductie van het model heeft het team officiële workflow-sjablonen uitgebracht voor Comfortabelde knooppuntgebaseerde interface die de standaard geïntegreerde ontwikkelomgeving (IDE) voor AI-kunstenaars is geworden.
De workflows – specifiek image_flux2_klein_text_to_image.json en de bewerkingsvarianten – waardoor gebruikers de nieuwe functies direct naar bestaande pipelines kunnen slepen en neerzetten.
De reactie van de gemeenschap op sociale media was gericht op deze workflowintegratie en snelheid. In een bericht op X benadrukte het officiële Black Forest Labs-account het vermogen van het model om “snel een specifieke esthetiek te verkennen”, met een video waarin de stijl van een afbeelding onmiddellijk veranderde terwijl de gebruiker door de opties bladerde.
Waarom het belangrijk is voor besluitvormers van Enterprise AI
De release van FLUX.2 (klein) luidt een volwassenheid in de generatieve AI-markt in, die voorbij de eerste fase van nieuwigheid gaat naar een periode die wordt bepaald door nut, integratie en snelheid.
Voor toonaangevende AI-ingenieurs die voortdurend jongleren met de noodzaak om snelheid en kwaliteit in evenwicht te brengen, is deze verschuiving van cruciaal belang. Deze professionals, die de volledige levenscyclus van modellen beheren, van datavoorbereiding tot implementatie, worden vaak geconfronteerd met de dagelijkse uitdaging om snel evoluerende tools in bestaande workflows te integreren.
De beschikbaarheid van een gedistilleerd 4B-model onder een Apache 2.0-licentie biedt een praktische oplossing voor degenen die zich richten op snelle implementatie en afstemming om aan specifieke bedrijfsdoelen te voldoen, waardoor ze de latentieknelpunten kunnen omzeilen die doorgaans hifi-imaging teisteren.
Voor senior AI-ingenieurs die zich richten op orkestratie en automatisering zijn de implicaties even groot. Deze experts zijn verantwoordelijk voor het bouwen van schaalbare AI-pijplijnen en het handhaven van de modelintegriteit in diverse omgevingen, vaak terwijl ze onder strikte budgetbeperkingen werken.
Het lichtgewicht karakter van het (kleine) gezin is een directe oplossing voor de uitdaging van het implementeren van efficiënte systemen met beperkte middelen. Door een model te gebruiken dat past binnen VRAM van consumentenkwaliteit, kunnen orkestratiespecialisten kosteneffectieve, lokale inferentiepijplijnen bouwen die de hoge operationele kosten vermijden die gepaard gaan met enorme bedrijfseigen modellen.
Zelfs voor de directeur IT-beveiliging biedt de overstap naar capabele, lokaal bestuurbare modellen met open gewicht een duidelijk voordeel. Als taak om de organisatie te beschermen tegen cyberdreigingen en om beveiligingsoperaties met beperkte middelen te beheren, kan de afhankelijkheid van externe API’s voor gevoelige creatieve workflows een kwetsbaarheid zijn.
Een kwalitatief hoogstaand model dat op locatie draait, stelt beveiligingsmanagers in staat om AI-tools te bestraffen die bedrijfseigen gegevens binnen de bedrijfsfirewall houden, waardoor de operationele vereisten van het bedrijf in evenwicht worden gebracht met de robuuste beveiligingsmaatregelen die ze willen handhaven.



