Trivector Traffic har under lång tid arbetat med analys och utveckling av hållbara transportsystem, där kollektivtrafiken utgör en central del. Verksamheten bygger på ett kunskapsbaserat angreppssätt där data, modeller och evidens står i centrum.
I takt med att tillgången till stora datamängder ökar och nya AI-metoder etableras, blir det naturligt att undersöka hur dessa tekniker kan tillämpas för att effektivisera och förbättra kollektivtrafiken.
AI bortom språkmodeller
Diskussionen om AI domineras ofta av stora språkmodeller som ChatGPT. Men för kollektivtrafiken ligger den största potentialen i strukturerad dataanalys och prediktiva modeller. AI består i grunden av statistiska och matematiska metoder som kan nyttiggöra de omfattande datamängder som genereras av branschen – exempelvis realtidsdata från fordon, biljettransaktioner, sensordata och reseflödesmätningar.
Det handlar inte bara om att applicera algoritmer. Datamängderna måste vara tillgängliga i rätt form, med definierade strukturer, standardiserade format och dokumenterad datakvalitet. Algoritmernas prestanda är direkt beroende av hur väl data är integrerad, rensad och lagrad.
Infrastruktur och kompetenser som krävs
Effektiv användning av AI förutsätter en robust teknisk infrastruktur. Det innebär att det måste finnas system som kan samla in och hantera data både löpande och i större omgångar, och att information från olika håll behöver kunna kopplas ihop på ett smidigt sätt. Det krävs också en struktur för hur data lagras och hittas, så att analyser kan göras effektivt. Dessutom behövs rutiner för att upptäcka och rätta till fel i data, till exempel sådant som saknas eller inte stämmer.
Traditionellt har dessa kompetenser främst funnits inom IT-avdelningar, medan kunskapen om trafiksystemens logik och funktioner har funnits inom verksamheten. För AI-baserade system är en nära koppling mellan dessa kompetenser avgörande.
Big Data som ingen använder
De flesta förstår att data är en grundläggande förutsättning för att utveckla och tillämpa AI-modeller. Många organisationer bygger därför omfattande databaser och anställer både data scientists och data engineers, alltså ett datateam, för att ta tillvara på potentialen. I praktiken ser vi ofta att personer i verksamheten inte känner till att datan finns, inte vet var den finns eller vet det men saknar kunskap om hur de får tillgång till den och hur den kan användas i det dagliga arbetet.
På andra sidan uppstår problem när datateamet saknar förståelse för kontexten. Utan verkliga beställare och användare från verksamheten, utanför den egna chefsgruppen, ägnar sig datateamet ofta åt modeller och analyser som aldrig integreras i organisationens processer och därför inte skapar något egentligt värde. Organisationen går då miste om en stor del av nyttan med sina investeringar i data och AI.
Ett enkelt exempel visar problemet. En del av datateamets ansvar är kvalitetssäkring av data. Utan förståelse av eller tanke på applikationsområden betyder kvalitetssäkring att data strömmar in från sensorer enligt tekniska specifikationer som i bästa fall är definierade av verksamheten. En temperaturmätning i en buss som visar 39 grader i februari kan då vara korrekt utifrån specifikation men är uppenbart orimlig i sitt sammanhang.
På samma sätt blir en temperatur som sparas som heltal i stället för decimaler korrekt enligt specifikation men i praktiken oanvändbar om man vill analysera små variationer för att optimera komforten för passagerare. Även om verksamheten vid något skede har varit med och granskat specifikationer förstår inte alla vad en datapunkt sparad som int, alltså heltal, innebär. Kvalitetssäkring får först verklig betydelse när data ska användas i sin kontext och här behövs samarbete mellan datateamet och verksamheten. Detta blir desto viktigare när modeller och analyser ska appliceras i affärsmässiga beslut eller andra tjänster som förlitar sig på att datan är “korrekt”.
Tvärdisciplinärt samarbete
För att hantera komplexiteten kombinerar Trivector Traffic sin trafiksystemkompetens med Backtick Technologies tekniska specialistområden inom data engineering och AI-utveckling. Backtick arbetar med att etablera skalbara dataplattformar, bygga pipelines och utveckla algoritmer som är anpassade för stora och heterogena datamängder.
Experter från de två bolagen har samarbetat i flera projekt, och ser det tvärdisciplinära angreppssättet som centralt.
– Vi kan utveckla mer relevanta tekniska lösningar när vi har en detaljerad förståelse av problemkontexten, säger Michal Stypa, vd på Backtick Technologies.
– AI ger först reell nytta när teknisk arkitektur, datahantering och domänkompetens kombineras, säger Anna Stankovski Clark, affärsområdesansvarig inom Värdeskapande Digitalisering på Trivector Traffic.
Undvik nya silos och generiska system
En risk med snabb AI-utveckling är att lösningar byggs isolerat från befintliga dataflöden eller utan koppling till verksamhetens faktiska frågor – det är något vi har sett i praktiken. Det leder lätt till nya digitala silos eller system som är svåra att integrera, och framför allt till lösningar som inte ger vinst eller konkreta nytta.