I denna uppsats undersöks hur svensk skadeståndsrätt förhåller sig till skador orsakade av AI-system, i synnerhet mot bakgrund av EU:s pågående rättsutveckling med AI-förordningen och förslaget till nytt direktiv om skadeståndsansvar för AI. Utvecklingen av AI, vars system ofta uppvisar hög grad av autonomi och komplexitet, utmanar traditionella skadeståndsrättsliga principer som huvudsakligen bygger på culpaansvar. Även om AI-förordningen fokuserar på riskklassificering och omfattande säkerhetskrav, behandlar den inte explicit frågan om skadeståndsansvar. Därav har ett separat direktivförslag lagts fram, vilket bland annat föreslår processuella lättnader för skadelidande, såsom presumtion om kausalitet och utvidgad editionsplikt, utan att överge grundprincipen om culpa. Genom en kombination av rättsdogmatisk och rättsanalytisk metod, förstärkt av ett interdisciplinärt perspektiv på AI-teknikens särdrag, analyseras i vilken utsträckning svensk rätt kan eller bör anpassas för att hantera AI-relaterade skador. Framställningen visar att det befintliga regelsystemet, med skadeståndslagen och skadeståndsrättsliga principer i centrum, har en relativt stor kapacitet att tillgodose de krav som aktualiseras i komplexa AI-fall. Skadeståndsrätten möjliggör för omvänd bevisbörda i situationer där den skadelidande saknar insyn, och principen om anonym eller kumulerad culpa kan täcka in fall där flera aktörer eller faktorer samverkat. Samtidigt framkommer det att strikt ansvar kan vara en ändamålsenlig lösning för högautonoma och riskfyllda AI-system. I uppsatsen dras slutsatsen att svensk skadeståndsrätt redan är förhållandevis väl rustad för att hantera AI-relaterade risker, särskilt i ljuset av att EU för närvarande främst inriktar sig på culpaansvar med processuella bevislättnader. Det finns dock utrymme för viss normutveckling och eventuella förtydliganden i svensk rätt, främst gällande situationer med hög grad av autonomi eller blandad mänsklig och algoritmisk påverkan. I takt med att AI-teknik fortsätter att expandera i allt fler samhällssektorer ökar behovet av klara ansvarsregler, samtidigt som rätten måste balansera kravet på rättssäkerhet och trygghet för skadelidande mot risken att hämma innovationskraften. Därmed kan en mer heltäckande reglering av strikt ansvar för vissa AI-tillämpningar på sikt bli en nödvändig åtgärd i svensk rätt.