Digitala Vetenskapliga Arkivet

Ändra sökning
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
From vocal sketching to sound models by means of a sound-based musical transcription system
KTH, Skolan för elektroteknik och datavetenskap (EECS), Människocentrerad teknologi, Medieteknik och interaktionsdesign, MID. (Sound and Music Computing)ORCID-id: 0000-0002-1244-881x
KTH, Skolan för elektroteknik och datavetenskap (EECS), Människocentrerad teknologi, Medieteknik och interaktionsdesign, MID. KMH Royal College of Music. (Sound and Music Computing)ORCID-id: 0000-0003-1239-6746
KTH, Skolan för elektroteknik och datavetenskap (EECS), Människocentrerad teknologi, Medieteknik och interaktionsdesign, MID. (Sound and Music Computing)ORCID-id: 0000-0002-4422-5223
KTH, Skolan för elektroteknik och datavetenskap (EECS), Människocentrerad teknologi, Medieteknik och interaktionsdesign, MID. (Sound and Music Computing)ORCID-id: 0000-0002-3086-0322
2019 (Engelska)Ingår i: Proceedings of the Sound and Music Computing Conferences, CERN , 2019, s. 167-173Konferensbidrag, Publicerat paper (Refereegranskat)
Abstract [en]

This paper explores how notation developed for the representation of sound-based musical structures could be used for the transcription of vocal sketches representing expressive robot movements. A mime actor initially produced expressive movements which were translated to a humanoid robot. The same actor was then asked to illustrate these movements using vocal sketching. The vocal sketches were transcribed by two composers using sound-based notation. The same composers later synthesized new sonic sketches from the annotated data. Different transcriptions and synthesized versions of these were compared in order to investigate how the audible outcome changes for different transcriptions and synthesis routines. This method provides a palette of sound models suitable for the sonification of expressive body movements.

Ort, förlag, år, upplaga, sidor
CERN , 2019. s. 167-173
Serie
Proceedings of the Sound and Music Computing Conferences, ISSN 2518-3672
Nyckelord [en]
Computer programming, Computer science, Body movements, Humanoid robot, Musical structures, Musical transcription, Robot movements, Sonifications, Sound models, Anthropomorphic robots
Nationell ämneskategori
Data- och informationsvetenskap
Identifikatorer
URN: urn:nbn:se:kth:diva-274803Scopus ID: 2-s2.0-85084386218OAI: oai:DiVA.org:kth-274803DiVA, id: diva2:1445922
Konferens
16th Sound and Music Computing Conference, SMC 2019, 28-31 May 2019, Malaga, Spain
Projekt
SONAO
Anmärkning

QC 20210422

Tillgänglig från: 2020-06-23 Skapad: 2020-06-23 Senast uppdaterad: 2023-12-05Bibliografiskt granskad

Open Access i DiVA

Fulltext saknas i DiVA

Övriga länkar

ScopusPublished fulltext

Sök vidare i DiVA

Av författaren/redaktören
Panariello, ClaudioMattias, SköldFrid, EmmaBresin, Roberto
Av organisationen
Medieteknik och interaktionsdesign, MID
Data- och informationsvetenskap

Sök vidare utanför DiVA

GoogleGoogle Scholar

urn-nbn

Altmetricpoäng

urn-nbn
Totalt: 201 träffar
RefereraExporteraLänk till posten
Permanent länk

Direktlänk
Referera
Referensformat
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf