Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Artificiell intelligens och gender bias: En studie av samband mellan artificiell intelligens, gender bias och könsdiskriminering
Uppsala University, Disciplinary Domain of Science and Technology, Mathematics and Computer Science, Department of Information Technology, Division of Visual Information and Interaction.
2019 (Swedish)Independent thesis Advanced level (professional degree), 20 credits / 30 HE creditsStudent thesisAlternative title
Addressing Gender Bias in Artificial Intelligence (English)
Abstract [sv]

AI spås få lika stor påverkan på samhället som elektricitet haft och avancemangen inom till exempel maskininlärning och neurala nätverk har tagit AI in i sektorer som rättsväsende, rekrytering och hälso- och sjukvård. Men AI-system är, precis som människor, känsliga för olika typer av snedvridningar, vilket kan leda till orättvisa beslut. En alarmerande mängd studier och rapporter visar att AI i flera fall speglar, sprider och förstärker befintliga snedvridningar i samhället i form av fördomar och värderingar vad gäller könsstereotyper och könsdiskriminering. Algoritmer som används i bildigenkänning baserar sina beslut på stereotyper om vad som är manligt och kvinnligt, röstigenkänning är mer trolig att korrekt känna igen manliga röster jämfört med kvinnliga röster och röstassistenter som Microsoft:s Cortona eller Apple:s Siri förstärker befintlig könsdiskriminering i samhällen.

Syftet med denna studie är att undersöka hur könsdiskriminering kan uppstå i AI-system generellt, hur relationen mellan gender bias och AI-system ser ut samt hur ett företag som arbetar med utveckling av AI resonerar kring relationen mellan gender bias och AI-utveckling. Studiens syfte uppfylls genom en litteraturgenomgång samt djupintervjuer med nyckelpersoner som på olika sätt arbetar med AI-utveckling på KPMG.

Resultaten visar att bias i allmänhet och gender bias i synnerhet finns närvarande i alla steg i utvecklingen av AI och kan uppstå på grund av en mängd olika faktorer, inklusive men inte begränsat till mångfald i utvecklingsteamen, utformningen av algoritmer och beslut relaterade till hur data samlas in, kodas, eller används för att träna algoritmer. De lösningar som föreslås handlar dels om att adressera respektive orsaksfaktor som identifierats, men även att se problemet med gender bias och könsdiskriminering i AI-system från ett helhetsperspektiv. Essensen av resultaten är att det inte räcker att ändra någon av parametrarna om inte systemets struktur samtidigt ändras.

Abstract [en]

Recent advances in, for example, machine learning and neural networks have taken artificial intelligence into disciplines such as justice, recruitment and health care. As in all fields subject to AI, correct decisions are crucial and there is no room for discriminatory conclusions. However, AI-systems are, just like humans, subject to various types of distortions, which can lead to unfair decisions. An alarming number of studies and reports show that AI in many cases reflects and reinforces existing gender bias in society. Algorithms used in image recognition base their decisions on character stereotypes of male and female. Voice recognition is more likely to correctly recognize male voices compared to female voices, and earlier 2019 the United Nations released a study showing that voice assistants, such as Microsoft's Cortona or Apple's Siri, reinforce existing gender bias.

The purpose of this study is to investigate how gender discrimination can appear in AI-systems, and what constitutes the relationship between gender bias, gender discrimination and AI-systems. Furthermore it addresses how a company that works with the development of AI reason concerning the relationship between gender bias, gender discrimination and AI development. The study contains a thorough literature review, as well as in-depth interviews with key persons working with various aspects of AI development at KPMG. 

The results show that bias in general, and gender bias in particular, are present at all stages of AI development. It can occur due to a variety of factors, including but not limited to the lack of diversity in the workforce, the design of algorithms and the decisions related to how data is collected, encoded and used to train algorithms. The solutions proposed are partly about addressing the identified factors, but also about looking at the problem from a holistic perspective. The significance of seeing and understanding the links between gender bias in society and gender bias in AI-systems, as well as reconsidering how each factor depends on and correlates with other ones, is emphasized. The essence of the results is that it is not enough to alter any of the parameters unless the structure of the system is changed as well.

Place, publisher, year, edition, pages
2019. , p. 72
Series
UPTEC STS, ISSN 1650-8319 ; 19049
Keywords [en]
algorithmic bias, artificial intelligence, AI-system, automation, cognitive bias, gender analysis, gender bias, gender discrimination, fairness
Keywords [sv]
algoritmisk snedvridning, artificiell intelligens, AI-system, automatisering, genusanalys, könsdiskriminering, kognitiv snedvridning, rättvisa
National Category
Computer Vision and Robotics (Autonomous Systems) Gender Studies
Identifiers
URN: urn:nbn:se:uu:diva-398282OAI: oai:DiVA.org:uu-398282DiVA, id: diva2:1375138
External cooperation
KPMG
Educational program
Systems in Technology and Society Programme
Supervisors
Examiners
Available from: 2019-12-04 Created: 2019-12-04 Last updated: 2019-12-04Bibliographically approved

Open Access in DiVA

fulltext(1672 kB)21 downloads
File information
File name FULLTEXT02.pdfFile size 1672 kBChecksum SHA-512
29ddf6540a3270c2ceca2f5ded44bb1e884e402dfdce35af454ebdda061958ee2860f9ef7b5e3f30c5a6e326198fc1e53c72f215fbbb2a4fcf4319fb063893a0
Type fulltextMimetype application/pdf

By organisation
Division of Visual Information and Interaction
Computer Vision and Robotics (Autonomous Systems)Gender Studies

Search outside of DiVA

GoogleGoogle Scholar
Total: 22 downloads
The number of downloads is the sum of all downloads of full texts. It may include eg previous versions that are now no longer available

urn-nbn

Altmetric score

urn-nbn
Total: 424 hits
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf