Syftet med uppsatsen är att analysera EU:s nya AI-förordning i ljuset av nya och framtida tillämpningsområden för AI. Särskilt analyseras förordningen i relation till hur den tillämpas på autonoma bolag för att undersöka hur AI-förordningen kan förväntas hantera framtida tillämpningar av AI. Uppsatsen använder en EU-rättslig och rättsdogmatisk metod. Först presenteras autonoma bolag som begrepp och deras juridiska kontext, tillsammans med en kort och översiktlig redogörelse för relevant amerikansk rätt. Därefter ges en överblick av hur dessa bolag kan etableras i Sverige och vilka lagar som är tillämpliga. Efter detta introduceras AI-förordningen och dess olika aspekter. En kort bakgrund till lagstiftningsarbetet redovisas, liksom den rättsliga grunden för förordningen. Sedan diskuteras AI som legaldefinition och förordningens systematik med avseende på relevanta aktörer, deras skyldigheter och risk som metod för att skapa en stegvis regelbörda beroende på tillämpningsområde. Dessa aspekter diskuteras var för sig i ljuset av autonoma bolag och andra framtida AI-tillämpningar. Vidare redogörs för de mekanismer i AI-förordningen som är avsedda att säkerställa dess framtidssäkerhet, såsom uppförandekoder och harmonisering, delegerade rättsakter samt regulatoriska sandlådor. Slutligen förs en bredare diskussion i ämnet. Uppsatsens slutsatser är att AI-förordningen inte i sig förbjuder autonoma bolag, att det är problematiskt att förordningen endast kräver mänsklig kontroll av AI med hög risk och att rättssubjektivitet bör inkluderas i bilaga III i AI-förordningen över tillämpningsområden som innebär hög risk.