Utilize este identificador para referenciar este registo: https://hdl.handle.net/1822/84180

Registo completo
Campo DCValorIdioma
dc.contributor.advisorNovais, Paulopor
dc.contributor.advisorGonçalves, Filipepor
dc.contributor.authorFerreira, Luís Pedro Barbosapor
dc.date.accessioned2023-04-27T14:19:45Z-
dc.date.available2023-04-27T14:19:45Z-
dc.date.issued2022-12-13-
dc.date.submitted2022-11-
dc.identifier.urihttps://hdl.handle.net/1822/84180-
dc.descriptionDissertação de mestrado integrado em Informatics Engineeringpor
dc.description.abstractA Inteligência Artificial tem sido cada vez mais utilizada nas nossas tarefas diárias, melhorando a qualidade de vida e a segurança das pessoas. A condução autónoma é um dos campos onde esta inteligência está a ser cada vez mais utilizada. Este processo envolve a transformação de veículos normalmente conduzidos por humanos em veículos autônomos com capacidade de agir sem intervenção humana. A condução autónoma pode usar dados de vários sensores, como câmaras, RADAR e/ou LiDAR, para percecionar automaticamente o ambiente ao redor e tomar decisões inteligentes. Para compreender o ambiente percecionado, um módulo de deteção de objetos deve ser desenvolvido e interconectado para uma implementação confiável de um veículo autónomo. Essa tarefa é a base da condução autónomo, pois permite que o veículo reconheça objetos que possam estar presentes na área envolvente, tais como pedestres ou outros veículos. As deteções geralmente são feitas usando algoritmos de Aprendizagem Profunda que utilizam redes neuronais convolucionais e grandes quantidades de dados de treino e validação. Apesar de vários esforços para acelerar o desenvolvimento de veículos autónomos, essa tarefa tem se mostrado complexa. Quase todas as técnicas desenvolvidas para resolver este problema foram implementadas realizando deteções em cada frame separadamente. Essa estratégia, no entanto, não aborda questões como oclusão, ruído do sinal, ou outros tipos de falta de informação dos objetos. Como resultado, uma tecnologia consistente temporalmente que emprega as informações de um objeto num contexto de múltiplos frames, ou seja, em uma sequência de frames, pode aumentar a qualidade da deteção. No caso desta dissertação, a perceção autônoma será realizada usando a deteção de objetos temporal com base em dados coletados de sensores LiDAR. Esses sensores são capazes de obter dados de alta fidelidade que permitem uma representação 3D de alta qualidade do cenário, conhecidas como nuvens de pontos.por
dc.description.abstractArtificial Intelligence has been increasingly used in our daily tasks, improving people’s quality of life and safety. Autonomous driving is one of the fields where this intelligence is increasingly being used. This process entails the transformation of vehicles normally driven by humans into autonomous vehicles with the ability to act without human intervention. Autonomous driving may use data from various sensors, such as cameras, RADAR, and/or LiDAR, to automatically perceive the surrounding environment and make intelligent decisions. To comprehend the perceived environment, an object detection module must be developed and interconnected for a reliable autonomous vehicle implementation. This task is the foundation of autonomous driving since it allows the vehicle to recognise objects who may be present in the area, such as pedestrians or other vehicles. The detections are usually made using Deep Learning algorithms that utilise convolutional neural networks and massive amounts of training data. Despite several efforts to accelerate the development of autonomous vehicles, this task has proven to be complex. Almost all developed techniques to solve this problem have been implemented by performing detections on each frame separately. This strategy, however, does not address issues like occlusion or other sorts of object information deficiency. As a result, a temporal consistent technology that employs an object’s information in a multi-frame context, that is, in a sequence of frames, can increase detection quality. In the instance of this dissertation, autonomous perception will be accomplished using temporal object detection based on data collected from LiDAR sensors. These sensors are capable of obtaining high-fidelity data that allows for a high-quality 3D representation of the scenario, known as point clouds.por
dc.description.sponsorshipThis work is supported by European Structural and Investment Fund in the FEDER component through the Operational Competitiveness and Internalisation Programme (COMPETE 2020) [Project nº047264; Funding Reference: POCI-01-0247-FEDER-047264].por
dc.language.isoengpor
dc.relationPOCI-01-0247-FEDER-047264por
dc.rightsopenAccesspor
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/por
dc.subjectCondução autónomapor
dc.subjectDeteção de objetospor
dc.subjectInteligência artificialpor
dc.subjectAprendizagem profundapor
dc.subjectPerceção máquinapor
dc.subjectLiDARpor
dc.subjectNuvens de pontospor
dc.subjectMulti-framepor
dc.subjectAutonomous drivingpor
dc.subjectObject detectionpor
dc.subjectArtificial intelligencepor
dc.subjectDeep Learningpor
dc.subjectMachine perceptionpor
dc.subjectPoint cloudspor
dc.titleTemporal object detection for autonomous drivingpor
dc.title.alternativeDeteção temporal de objetos para condução autónomapor
dc.typemasterThesiseng
dc.identifier.tid203259289por
thesis.degree.grantorUniversidade do Minhopor
sdum.degree.grade18 valorespor
sdum.uoeiEscola de Engenhariapor
dc.subject.fosEngenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informáticapor
Aparece nas coleções:BUM - Dissertações de Mestrado
DI - Dissertações de Mestrado

Ficheiros deste registo:
Ficheiro Descrição TamanhoFormato 
Luis Pedro Barbosa Ferreira.pdf10,4 MBAdobe PDFVer/Abrir

Este trabalho está licenciado sob uma Licença Creative Commons Creative Commons

Partilhe no FacebookPartilhe no TwitterPartilhe no DeliciousPartilhe no LinkedInPartilhe no DiggAdicionar ao Google BookmarksPartilhe no MySpacePartilhe no Orkut
Exporte no formato BibTex mendeley Exporte no formato Endnote Adicione ao seu ORCID