Home Nieuws De nieuwe AI-paradox: slimmere modellen, slechtere data

De nieuwe AI-paradox: slimmere modellen, slechtere data

16
0
De nieuwe AI-paradox: slimmere modellen, slechtere data

AI belooft een slimmere, snellere en efficiëntere toekomst, maar onder dat optimisme schuilt een stil probleem dat steeds erger wordt: de data zelf. We praten veel over algoritmen, maar niet genoeg over de infrastructuur die ze voedt. De waarheid is dat innovatie de kwaliteit van de input niet kan overtreffen, en op dit moment vertonen die inputs tekenen van spanning. Wanneer de fundering begint te barsten, zullen zelfs de meest geavanceerde systemen wankelen.

Tien jaar geleden konden schaal en nauwkeurigheid hand in hand gaan. Maar vandaag de dag werken deze doelen vaak in tegengestelde richtingen. Privacyregelgeving, apparaatkeuzes en nieuwe platformbeperkingen hebben het moeilijker dan ooit gemaakt om hoogwaardige gegevens van eerste partijen vast te leggen. Om deze leemte op te vullen heeft de markt zichzelf overspoeld met gerecyclede, valse of afgeleide signalen die er legitiem uitzien, maar dat niet zijn.

Het resultaat is een vreemde nieuwe realiteit waarin een winkelcentrum dat twee jaar geleden werd gesloten nog steeds ‘voetverkeer’ vertoont of een autodealer om middernacht druk lijkt. Deze anomalieën lijken misschien onschuldige fouten, maar zijn in werkelijkheid het resultaat van een data-ecosysteem dat kwantiteit belangrijker vindt dan geloofwaardigheid.

Wanneer volume ruis wordt

Jarenlang geloofde de industrie dat meer data betere inzichten betekende. Luidheid duidde op kracht. Meer input betekende meer intelligentie. Maar overvloed staat nu gelijk aan afleidend lawaai. Om de schaal te behouden hebben sommige leveranciers hun toevlucht genomen tot het opvullen van gegevens of valse signalen, waardoor dashboards er gezond uitzien en de betrouwbaarheid en authenticiteit ervan wordt aangetast.

Zodra slechte gegevens het systeem binnenkomen, is het bijna onmogelijk om deze te scheiden. Het is alsof je een paar verlopen Cheerios in een nieuwe doos mengt; je ziet niet welke stukken verouderd zijn, maar je proeft wel het verschil. En op grote schaal wordt dat verschil exponentieel vergroot.

De AI-paradox

Ironisch genoeg is AI zowel een deel van het probleem als een deel van de oplossing. Elk model is afhankelijk van trainingsgegevens, en als die basis gebrekkig is, geldt dat ook voor de inzichten die het oplevert. Geef het rommel en het zal ongetwijfeld tot de verkeerde conclusies leiden.

Iedereen die ChatGPT heeft gebruikt, heeft deze frustratie waarschijnlijk uit de eerste hand gevoeld. Hoewel het een ongelooflijk handig hulpmiddel is, zijn er momenten waarop het je nog steeds een onnauwkeurig antwoord of hallucinaties geeft. U stelt een vraag en deze geeft onmiddellijk en met absoluut vertrouwen een gedetailleerd antwoord. . . behalve dat het allemaal verkeerd is. Even klinkt het overtuigend genoeg om te geloven. Maar zodra je de bug te pakken hebt, komt er een klein zaadje van twijfel. Doe het nog een paar keer en de twijfel zal het overnemen. Dit is wat er gebeurt als de datakwaliteit achteruitgaat: het verhaal lijkt nog steeds compleet, maar je weet niet zeker wat echt is.

Tegelijkertijd geeft AI ons nieuwe tools om de rommel die het erft op te ruimen door inconsistenties te signaleren. Een restaurant dat op zondag bezoekers laat zien als het gesloten is? Een gesloten winkelcentrum ineens weer ‘druk’? Dit zijn de patronen die AI kan oppikken als hij goed is getraind.

Toch kan geen enkel bedrijf dit alleen oplossen. Data-integriteit is afhankelijk van elke schakel in de keten, van verzamelaars en aggregators tot analisten en eindgebruikers, die verantwoordelijkheid nemen voor wat zij bijdragen. Vooruitgang zal niet voortkomen uit meer data, maar uit meer transparantie over de data die we al hebben.

Kwaliteit boven kwantiteit

We kunnen er niet langer van uitgaan dat meer data automatisch betere data betekent, en dat is oké.

De focus moet verschuiven van het aggregeren van alles naar het beheren van wat telt, het opbouwen van betrouwbare datastromen die kunnen worden geverifieerd. Slimmere datasets die op betrouwbare signalen zijn gebouwd, leveren consequent duidelijkere, beter verdedigbare inzichten op dan bergen twijfelachtige informatie.

Veel organisaties stellen omvang nog steeds gelijk aan geloofwaardigheid. Maar de echte vraag is niet hoeveel gegevens je hebt, maar hoe oprecht het is.

Het menselijke element

Het veranderen van de manier waarop mensen over data denken is moeilijker dan het veranderen van de technologie zelf. Teams verzetten zich tegen nieuwe workflows. Partners zijn bang dat ‘minder’ betekent dat ze de zichtbaarheid of controle verliezen. Maar kleinere, slimmere datasets onthullen vaak meer dan enorme datasets ooit zouden kunnen, omdat de signalen die ze bevatten reëel zijn.

Maar zodra het vertrouwen verloren is, verliest inzicht zijn waarde. Het herstellen van dat vertrouwen door middel van transparantie, validatie en samenwerking is net zo cruciaal geworden als de algoritmen zelf.

AI zal het dataprobleem niet uitwissen; het zal het vergroten. We moeten gedisciplineerd genoeg zijn om signalen van ruis te scheiden en zelfverzekerd genoeg om toe te geven dat meer niet altijd beter is.

Omdat het echte voordeel niet over eindeloze gegevens beschikt. Het is weten wat je achterlaat.

De uiterste deadline voor Fast Company’s Wereldveranderende ideeënprijzen is vrijdag 12 december om 23:59 uur PT. Solliciteer vandaag nog.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in