Digitala Vetenskapliga Arkivet

Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Explainability of Transformer-Based Reinforcement Learning
KTH, Skolan för elektroteknik och datavetenskap (EECS).
2024 (Engelska)Självständigt arbete på avancerad nivå (masterexamen), 20 poäng / 30 hpStudentuppsats (Examensarbete)
Abstract [en]

The transformer architecture has revolutionized the field of sequential processing within AI. It has been widely adopted in fields such as Natural Language Process- ing (NLP) and Computer Vision (CV) due to their ability to capture long-range dependencies and contextual information through attention mechanism. This capability opens up new possibilities for their application in Reinforcement Learn- ing (RL), particularly for tasks that can be modeled as sequence learning problems. In RL, transformers can enhance decision-making by understanding and leveraging temporal dependencies. As models like transformers grow complex, the need to meet the AI Act’s transparency requirement and validate that the models are performing correctly is also critical. This thesis explores the applicability and explainability of the transformer architecture in RL for autonomous coordination in mobile networks. For the applicability, the Decision Transformer (DT) is applied and evaluated in a mo- bile network setup for a specific use case, that is autonomous coordination. By mod- eling RL as a sequence learning problem, the DT architecture is used to generate a policy. The findings reveal that even sub-optimal trajectories can generate a policy comparable to those trained through conventional online methods. The study shows the advantages of using DT and the relationship between the generated policies with the quality of the trajectories used for training. It also identifies limitations in stochas- tic environments where DT does not fully leverage temporal dependencies. For the explainability of DT, two different approaches were used. Firstly, the intrinsic explainability methods, which are based on the internal attention mechanism of the transformer are used. They revealed some useful information about the dynamics of the environment and the temporal dependencies for our use case. Secondly, post-hoc methods were used to perform token-level attribution and then feature-level attribution by extracting features from the state tokens. This work presents a detailed analysis and comparison of both methods, including their working details, limitations, types of explanations drawn from them, and their evaluation.

Abstract [sv]

Transformatorarkitekturen har revolutionerat området för sekventiell bearbetning inom artificiell intelligens. Den har använts mycket inom områden som naturlig språkbehandling och datorseende tack vare dess förmåga att fånga långväga beroen- den och kontextuell information genom uppmärksamhetsmekanismen. Denna kapabilitet öppnar nya möjligheter för deras tillämpning inom förstärkningsinlärning, särskilt för uppgifter som kan modelleras som sekvensinlärningsproblem. Inom förstärkningsinlärning kan transformatorer förbättra beslutsfattandet genom att förstå och utnyttja tidsberoenden. När modeller som transformatorer blir komplexa, är det också viktigt att uppfylla AI-lagens transparenskrav och verifiera att modellerna fungerar korrekt. Denna avhandling undersöker transformatorarkitekturens tillämp- lighet och förklarbarhet inom förstärkningsinlärning för autonom koordinering i mobilnät. För tillämpligheten används och utvärderas beslutstransformatorn i en mobilnätsmiljö för ett specifikt användningsfall, nämligen autonom koordinering. Genom att mod- ellera förstärkningsinlärning som ett sekvensinlärningsproblem används beslutstrans- formatorns arkitektur för att generera en policy. Resultaten visar att även suboptimala banor kan generera en policy som är jämförbar med de som tränats genom konven- tionella online-metoder. Studien visar fördelarna med att använda beslutstransforma- torn och sambandet mellan de genererade policyerna och kvaliteten på de banor som används för träning. Den identifierar också begränsningar i stokastiska miljöer där beslutstransformatorn inte fullt ut utnyttjar tidsberoenden. För förklarbarheten av beslutstransformatorn användes två olika tillvägagångssätt. Först användes de inneboende förklarbarhetsmetoderna, som är baserade på transformatorns interna uppmärksamhetsmekanism. De avslöjade viss användbar information om miljöns dynamik och tidsberoenden för vårt användningsfall. Därefter användes post-hoc-metoder för att utföra token-nivå attribution och sedan funktion-nivå attribution genom att extrahera funktioner från statustokens. Detta arbete presenterar en detaljerad analys och jämförelse av båda metoderna, inklusive deras arbetsdetaljer, begränsningar, typer av förklaringar som dragits från dem och deras utvärdering.

Ort, förlag, år, upplaga, sidor
2024. , s. 55
Serie
TRITA-EECS-EX ; 2024:824
Nyckelord [en]
eXplainable Artificial Intelligence, Decision Transformer, Reinforcement Learning, Se- quence Modeling, Mobile Networks
Nyckelord [sv]
Förklarbar artificiell intelligens, Transformatorarkitektur, Förstärkningsinlärning, Sekvensmodellering, Mobilnät
Nationell ämneskategori
Data- och informationsvetenskap
Identifikatorer
URN: urn:nbn:se:kth:diva-360332OAI: oai:DiVA.org:kth-360332DiVA, id: diva2:1940023
Externt samarbete
Ericsson AB
Handledare
Examinatorer
Tillgänglig från: 2025-02-27 Skapad: 2025-02-25 Senast uppdaterad: 2025-02-27Bibliografiskt granskad

Open Access i DiVA

fulltext(1350 kB)175 nedladdningar
Filinformation
Filnamn FULLTEXT01.pdfFilstorlek 1350 kBChecksumma SHA-512
0cb2c49da3a056e88fb4260600101809199511a3ca30f02b76448be03020b778137e426ca7ed9c0008a74f3f935af54377ee0a0bef0b340a6adc2153a60bbfe2
Typ fulltextMimetyp application/pdf

Av organisationen
Skolan för elektroteknik och datavetenskap (EECS)
Data- och informationsvetenskap

Sök vidare utanför DiVA

GoogleGoogle Scholar
Totalt: 175 nedladdningar
Antalet nedladdningar är summan av nedladdningar för alla fulltexter. Det kan inkludera t.ex tidigare versioner som nu inte längre är tillgängliga.

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 583 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf