Nyheter

Så kan mjukvaruföretag behålla kontrollen när AI tar plats i utvecklingen

Generativ AI används i allt större utsträckning av mjukvaruutvecklare – för att skriva kod, testa funktioner och stödja användare. Men medan tekniken snabbt hittar in i utvecklingsarbetet, släpar kvalitetskontrollen efter. Det visar en ny doktorsavhandling vid Blekinge Tekniska Högskola.

I sin avhandling i programvaruteknik har Liang Yu studerat hur mjukvaruteam i industrin arbetar med generativ AI i verkliga projekt.

Tre tydliga faser återkommer:

snabb testning av idéer, praktisk integration i utvecklingsarbetet, och drift med lärande från användardata. Kvalitetsgranskning sker i alla steg – men ofta i stuprör mellan utvecklare, jurister, säkerhetsexperter och driftteam. Ingen har det övergripande ansvaret.

Avhandlingens huvudresultat är ett praktiskt ramverk som hjälper organisationer att utvärdera AI-funktioner i varje fas av utvecklingen. Det ger stöd för när man bör göra kvalitetskontroller, vad som ska kontrolleras – och vem som bör äga beslut och bevis.

– Med rätt arbetssätt går det att införa generativ AI utan att tappa kontrollen över kvalitet, ansvar och förtroende, säger Liang Yu.

Liang Yu pekar också på ett allvarligt ”koordinationsglapp”. Trots att experter finns inom organisationen, saknas ofta en tydlig roll med helhetsansvar. Avhandlingen föreslår därför att en samordnande funktion införs – till exempel i form av en domänexpert – för att hålla ihop kvalitet, dokumentation och ansvar.

I takt med att AI blir en självklar del av mjukvaran i kritiska samhällstjänster – som finans, sjukvård och konsumenttjänster – blir tydlig ansvarsfördelning en avgörande fråga.

BIld: Jorge Franganillo