Please use this identifier to cite or link to this item: https://hdl.handle.net/1822/60032

Full metadata record
DC FieldValueLanguage
dc.contributor.advisorAnalide, Cesarpor
dc.contributor.advisorNovais, Paulopor
dc.contributor.authorRibeiro, Miguel Angelo Ferreira Diaspor
dc.date.accessioned2019-04-15T08:33:02Z-
dc.date.available2019-04-15T08:33:02Z-
dc.date.issued2017-
dc.date.submitted2017-
dc.identifier.urihttps://hdl.handle.net/1822/60032-
dc.descriptionDissertação de mestrado em Computer Sciencepor
dc.description.abstractComputer music generation is an active research field encompassing a wide range of approaches. As we involve more and more technology in our creative endeavors, it becomes vital that we provide our systems with the capability to understand and represent art concepts internally, as well as understand and predict artistic intent and emotion. In respect to music, being able to work with this information opens up fantastic possibilities for artistmachine synergetic collaborations as well as machine creativity endeavors. In this spirit, this dissertation explores a system capable of analyzing in real-time a performance piece played on a MIDI (Musical Instrument Digital Interface) capable instrument and produce a musically coherent piece of accompaniment music. This system comprises of two major subsystems: one responsible for analyzing and extracting features from the live performance and one that takes these features and generates MIDI tracks to be played in conjunction with the live audio, in a way that blends in with the performance.por
dc.description.abstractA geração algorítmica de música é um campo de investigação vasto e com múltiplas abordagens. À medida que incorporamos mais tecnologia nos nossos processos criativos, torna-se fundamental equipar os nossos sistemas com as capacidades para entender e representar arte, bem como analisar e prever intenção artística e emoções. No que diz respeito a música, ter este tipo de informação disponível abre possibilidades para colaborações entre artista e máquina, bem como sistemas capazes de exibir capacidades criativas. Esta dissertação propõe um sistema capaz de analisar uma performance musical num dispositivo controlador MIDI (Musical Instrument Digital Interface) em tempo real e produzir acompanhamento adequado e coerente. Este sistema é composto por dois subsistemas: um responsável por analisar e extrair características musicais de uma performance, e outro que a partir destas características seja capaz de gerar trechos MIDI de forma a se complementarem musicalmente.por
dc.language.isoengpor
dc.rightsopenAccesspor
dc.titleReal-time MIDI device data analysis and context aware music generationpor
dc.typemasterThesiseng
dc.identifier.tid202209300por
thesis.degree.grantorUniversidade do Minhopor
sdum.degree.grade15 valorespor
sdum.uoeiEscola de Engenhariapor
dc.subject.fosEngenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informáticapor
Appears in Collections:BUM - Dissertações de Mestrado
DI - Dissertações de Mestrado

Files in This Item:
File Description SizeFormat 
Miguel-Ângelo-Ferreira-Dias-Ribeiro-dissertação.pdf745,1 kBAdobe PDFView/Open

Partilhe no FacebookPartilhe no TwitterPartilhe no DeliciousPartilhe no LinkedInPartilhe no DiggAdicionar ao Google BookmarksPartilhe no MySpacePartilhe no Orkut
Exporte no formato BibTex mendeley Exporte no formato Endnote Adicione ao seu ORCID