Digitala Vetenskapliga Arkivet

Endre søk
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
Evaluating the Efficacy of Large Language Models in Summarizing Swedish Income Statements
KTH, Skolan för elektroteknik och datavetenskap (EECS).
2024 (engelsk)Independent thesis Advanced level (degree of Master (Two Years)), 20 poäng / 30 hpOppgaveAlternativ tittel
Utvärdering av effektiviteten hos stora språkmodeller för att summera svenska resultaträkningar (svensk)
Abstract [en]

This thesis explores the effectiveness of large language models (LLMs) in generating coherent and accurate natural language summaries from Swedish income statements. By employing various prompting strategies, this research investigates integration of a deterministic and explainable preprocessing system: one designed to optimize data relevance for LLM inputs – termed “guided zero-shot prompt”. The study systematically compares three prompting techniques: zero-shot, self-augmentation, and guided zeroshot, assessing their influence on summary accuracy and coherence. These techniques are tested in combination with three different LLMs: GPT-4, Llama 3 8B, and Llama 3 70B. Statistically significant improvements were observed with the guided zeroshot prompting approach, across all tested LLMs. In terms of aligning the generated summaries with human-created references, the guided prompt outperformed the other prompts, achieving a higher F-score for every model. The guided prompting notably reduced the inclusion of irrelevant numerical data and hallucinations, enhancing the factual precision of the summaries. In terms of LLM selection, the Llama 3 8B model performed notably worse than the other models. The results suggest that GPT-4 should be preferred if quality is prioritized over cost. These results underscore the potential for using LLMs to transform complex numerical data into more accessible narrative forms, enhancing various aspects of financial reporting and the possibility of interacting with numerical data using LLMs.

Abstract [sv]

Rapporten utforskar stora språkmodellers (LLM:er) förmåga att, utan specific förträning, generera sammanhängande och precisa sammanfattningar av svenska resultaträkningar representerade som strukturerade dokument bestående av numeriskt data. Genom att använda olika promptningsstrategier undersöks integrationen av ett deterministiskt och förklarbart förbehandlingssystem, som är designat för att optimera relevansen av indata för LLM:en – benämnt “guided zero-shot prompt”. Studien jämför systematiskt tre promptningstekniker: zero-shot, self-augmentation och guided zero-shot, och bedömer deras inverkan på sammanfattningarnas korrekthet och sammanhang. Teknikerna har utvärderats i kombination med tre olika LLM:er: GPT-4, Llama 3 8B och Llama 3 70B. Statistiskt signifikanta förbättringar observerades vid användningen av ”guided zero-shot”-prompten, för samtliga testade modeller. När det gäller att anpassa de genererade sammanfattningarna till sammanfattningar skapade av människor, överträffade “guided zero-shot”-prompten de andra prompterna och uppnådde det högsta F-värdet för samtliga modeller. Dessutom reducerade den märkbart hallucinationer och felaktigheter i texterna och förbättrade därmed den faktiska precisionen i sammanfattningarna. När det gäller LLM-valet presterade Llama 3 8B-modellen märkbart sämre än de andra modellerna, vilket indikerar att större modeller krävs för den här typen av datatill- text uppgifter. GPT-4 bör tillämpas om kvalitet prioriteras över kostnad. Dessa resultat understryker potentialen med att använda LLM:er för att omvandla komplex numerisk data till mer tillgängliga beskrivande former, vilket kan reformera aspekter av finansiell rapportering.

sted, utgiver, år, opplag, sider
2024. , s. 69
Serie
TRITA-EECS-EX ; 2024:687
Emneord [en]
Data-to-text, Natural language processing, Large language models, Finance
Emneord [sv]
Data-till-text, Språkteknologi, Stora språkmodeller, Finans
HSV kategori
Identifikatorer
URN: urn:nbn:se:kth:diva-359959OAI: oai:DiVA.org:kth-359959DiVA, id: diva2:1937229
Eksternt samarbeid
SoftOne AB
Veileder
Examiner
Tilgjengelig fra: 2025-02-17 Laget: 2025-02-12 Sist oppdatert: 2025-02-17bibliografisk kontrollert

Open Access i DiVA

fulltext(580 kB)88 nedlastinger
Filinformasjon
Fil FULLTEXT01.pdfFilstørrelse 580 kBChecksum SHA-512
4a37857f328cd2ef050fd20d4d39c45a7bdd27a424776fb0d1039a23a38d038ec4e5af055333d8ff159b6876c05c45080f2183c60d78b1b87ced98596c1243fa
Type fulltextMimetype application/pdf

Av organisasjonen

Søk utenfor DiVA

GoogleGoogle Scholar
Totalt: 88 nedlastinger
Antall nedlastinger er summen av alle nedlastinger av alle fulltekster. Det kan for eksempel være tidligere versjoner som er ikke lenger tilgjengelige

urn-nbn

Altmetric

urn-nbn
Totalt: 439 treff
RefereraExporteraLink to record
Permanent link

Direct link
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annet format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annet språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf