Volg ZDNET: Voeg ons toe als voorkeursbron op Google.
De belangrijkste conclusies van ZDNET
- Cloud-first-benaderingen moeten worden heroverwogen.
- AI draagt bij aan de stijgende cloudkosten.
- Een hybride model garandeert het beste van twee werelden.
Ongeveer tien jaar geleden woedde het debat tussen cloud- en on-premises computing. De cloud won die wedstrijd handig, en het was niet eens dichtbij. Nu vragen mensen zich echter af of de cloud in veel situaties nog steeds de beste keuze is.
Ook: Cloud-native computing staat op het punt om te exploderen, dankzij AI-inferentiewerk
Welkom in het tijdperk van AI, waarin computergebruik op locatie er weer goed uit begint te zien.
Er is een beweging gaande
Bestaande infrastructuren die nu zijn geconfigureerd met clouddiensten zijn mogelijk niet klaar voor de nieuwe AI-eisen, zo waarschuwde een recente analyse van Deloitte.
“De infrastructuur die is gebouwd voor cloud-first-strategieën kan de AI-economie niet aan”, aldus het rapport, geschreven door een team van Deloitte-analisten onder leiding van Nicholas Merizzi.
Ook: 5 onmisbare cloudtools voor kleine bedrijven in 2025 (en mijn top 10 geldbesparende geheimen)
“Processen die zijn ontworpen voor menselijke werknemers werken niet voor agenten. Beveiligingsmodellen die zijn gebouwd voor perimeterverdediging bieden geen bescherming tegen bedreigingen die op machinesnelheid werken. IT-besturingsmodellen die zijn gebouwd voor dienstverlening zijn niet de drijvende kracht achter bedrijfstransformatie.”
Om aan de behoeften van kunstmatige intelligentie te voldoen, overwegen bedrijven om over te stappen van voornamelijk de cloud naar een hybride mix van cloud en on-premises, aldus de analisten van Deloitte. Beslissers op het gebied van technologie bekijken de mogelijkheden ter plekke voor de tweede en derde keer.
Ook: Wilt u echte AI ROI voor bedrijven? Het kan eindelijk gebeuren in 2026 – en hier is waarom
Zoals het Deloitte-team het omschreef, is er een beweging gaande “van cloud-first naar strategische hybride: cloud voor elasticiteit, on-premises voor consistentie en edge voor directheid.”
Vier nummers
De analisten van Deloitte noemden vier brandende problemen die zich voordoen bij cloudgebaseerde AI:
- Stijgende en onverwachte cloudkosten: De kosten van AI-tokens zijn in twee jaar tijd 280 maal gedaald, merken ze op – maar toch “zien sommige bedrijven maandelijkse rekeningen die in de tientallen miljoenen lopen.” Het overmatig gebruik van cloudgebaseerde AI-diensten “kan leiden tot frequente API-hits en escalerende kosten.” Er is zelfs een omslagpunt waarop installaties ter plaatse zinvoller zijn. “Dit kan gebeuren wanneer de cloudkosten 60% tot 70% van de totale kosten van de aanschaf van gelijkwaardige on-premise systemen gaan overschrijden, waardoor kapitaalinvesteringen aantrekkelijker worden dan operationele kosten voor voorspelbare AI-workloads.”
- Latentieproblemen met de cloud: AI vereist vaak een latentie van bijna nul om acties te leveren. “Toepassingen die responstijden van 10 milliseconden of minder vereisen, kunnen de inherente vertragingen van cloudgebaseerde verwerking niet tolereren”, benadrukken de auteurs van Deloitte.
- On-premises belooft grotere robuustheid: Veerkracht maakt ook deel uit van de dringende vereisten voor volledig functionele AI-processen. Deze omvatten “missiekritieke taken die niet kunnen worden onderbroken, waarbij infrastructuur op locatie nodig is in het geval van een onderbreking in de cloud”, aldus de analisten.
- Gegevenssoevereiniteit: Sommige bedrijven “besteden hun computerdiensten uit en willen niet volledig afhankelijk zijn van dienstverleners buiten hun lokale rechtsgebied.”
Ook: Waarom sommige bedrijven zich terugtrekken uit de publieke cloud
Drieledige aanpak
De beste oplossing voor het dilemma cloud versus on-premise is om voor beide te kiezen, aldus het Deloitte-team. Zij bevelen een drieledige aanpak aan, die uit het volgende bestaat:
- Cloud voor elasticiteit: Om met wisselende trainingsbelastingen, burst-capaciteitsbehoeften en experimenten om te kunnen gaan.
- On-premises voor consistentie: Voer productie-inferentie uit tegen voorspelbare kosten voor continue werklasten met grote volumes.
- Rand voor directheid: Dit betekent kunstmatige intelligentie binnen edge-apparaten, apps of systemen die “tijdkritische beslissingen nemen met minimale latentie, vooral voor productie- en autonome systemen waar responstijden van een fractie van een seconde het operationele succes of falen bepalen.”
Deze hybride aanpak wordt voor veel bedrijven als de beste weg vooruit beschouwd. Milankumar Rana, die recentelijk als software-architect bij FedEx Services heeft gewerkt, is all-in voor de cloud voor AI, maar ziet de noodzaak om beide benaderingen waar nodig te ondersteunen.
“Ik heb grootschalige machine learning- en analyse-infrastructuren gebouwd en ik heb gemerkt dat bijna alle functionaliteit, zoals datameren, gedistribueerde pijplijnen, streaming-analyses en AI-workloads op basis van GPU’s en TPU’s, nu in de cloud kunnen draaien”, vertelde hij aan ZDNET. “Omdat AWS-, Azure- en GCP-diensten zo volwassen zijn, kunnen bedrijven snel groeien zonder dat ze vooraf veel geld hoeven uit te geven.”
Ook: Hoe AI-agenten verspilling in uw bedrijf kunnen elimineren – en waarom het slimmer is dan kosten besparen
Rana vertelt klanten ook “om een aantal on-premise workloads te onderhouden waarbij datasoevereiniteit, regelgevingsoverwegingen of een zeer lage latentie de cloud minder bruikbaar maken”, zei hij. “De beste manier om dingen nu te doen is door een hybride strategie te gebruiken waarbij je gevoelige of latentiegevoelige applicaties on-premises houdt terwijl je de cloud gebruikt voor flexibiliteit en nieuwe ideeën.”
Of ze nu cloud- of on-premise-systemen gebruiken, bedrijven moeten altijd de directe verantwoordelijkheid nemen voor beveiliging en monitoring, aldus Rana. “Beveiliging en naleving blijven de verantwoordelijkheid van alle individuen. Cloudplatforms omvatten robuuste beveiliging, maar u moet ervoor zorgen dat de regels voor versleuteling, toegang en monitoring worden nageleefd.”



