<efrbr:recordSet xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:efrbr="http://vfrbr.info/efrbr/1.1" xmlns:efrbr-work="http://vfrbr.info/efrbr/1.1/work" xmlns:efrbr-expression="http://vfrbr.info/efrbr/1.1/expression" xmlns:efrbr-manifestation="http://vfrbr.info/efrbr/1.1/manifestation" xmlns:efrbr-person="http://vfrbr.info/efrbr/1.1/person" xmlns:efrbr-corporateBody="http://vfrbr.info/efrbr/1.1/corporateBody" xmlns:efrbr-concept="http://vfrbr.info/efrbr/1.1/concept" xmlns:efrbr-structure="http://vfrbr.info/efrbr/1.1/structure" xmlns:efrbr-responsible="http://vfrbr.info/efrbr/1.1/responsible" xmlns:efrbr-subject="http://vfrbr.info/efrbr/1.1/subject" xmlns:efrbr-other="http://vfrbr.info/efrbr/1.1/other" xsi:schemaLocation="http://vfrbr.info/efrbr/1.1 http://vfrbr.info/schemas/1.1/efrbr.xsd"><efrbr:entities><efrbr-work:work identifier="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F"><efrbr-work:titleOfTheWork>Motion capture generation from videos through Neural networks</efrbr-work:titleOfTheWork></efrbr-work:work><efrbr-expression:expression identifier="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F"><efrbr-expression:titleOfTheExpression>Motion capture generation from videos through Neural networks</efrbr-expression:titleOfTheExpression><efrbr-expression:titleOfTheExpression>Παραγωγή καταγραμμένης κίνησης από βίντεο με χρήση Νευρωνικών δικτύων</efrbr-expression:titleOfTheExpression><efrbr-expression:formOfExpression vocabulary="DIAS:TYPES">
            Διπλωματική Εργασία
            Diploma Work
         </efrbr-expression:formOfExpression><efrbr-expression:dateOfExpression type="issued">2022-09-15</efrbr-expression:dateOfExpression><efrbr-expression:dateOfExpression type="published">2022</efrbr-expression:dateOfExpression><efrbr-expression:languageOfExpression vocabulary="iso639-1">en</efrbr-expression:languageOfExpression><efrbr-expression:summarizationOfContent>Motion capture methods are either very expensive to acquire or of poor quality.
Thus, we propose an innovative method that will give access to everyone who has an
above-average computer, to generate for free their single-person digital motion clips.
Recently, many researchers try to use neural networks that estimate the 3D human
pose from a single video. In our approach, we decided to use three different well-known
pre-trained models, the first two to find the 2D pose estimation from each frame of the
video, and the other to convert these 2D poses into 3D poses. Then, we estimated the
position of the human per frame, by calculating the depth of the person in the image.
The combination of the 3D poses and the position consist the motion data that we
wanted to find. Then, by importing these data into a Skeleton that contains all the
estimated bones, we can create a Bio-vision Hierarchy (BVH) file, that can be imported
into the 3D computer graphics software tool-set. At this point, the generated BVH file
contains noise from the neural networks, so we propose using some filters to remove
this noise without affecting significantly the motion data information. Furthermore,
we converted the raw python code into a Windows Application to create a friendly
user environment. Finally, we created some functions within this application so that
the user can visually, process and edit the results from the BVH files.</efrbr-expression:summarizationOfContent><efrbr-expression:summarizationOfContent>Οι μέθοδοι λήψης κίνησης είναι είτε πολύ δαπανηρές στην απόκτηση είτε χαμηλότερης ποιότητας. Έτσι, προτείνουμε μια καινοτόμο μέθοδο που θα δώσει πρόσβαση σε όλους όσους διαθέτουν έναν σχετικά καλό υπολογιστή, για να δημιουργήσουν δωρεάν τα ψηφιακά κλιπ κίνησης ενός ατόμου. Πρόσφατα, πολλοί ερευνητές προσπαθούν να χρησιμοποιήσουν νευρωνικά δίκτυα που θα εκτιμήσουν την τρισδιάστατη ανθρώπινη στάση από ένα μόνο βίντεο. Στην προσέγγισή μας, αποφασίσαμε να χρησιμοποιήσουμε τρία διαφορετικά γνωστά προ-εκπαιδευμένα μοντέλα, τα δύο πρώτα για να βρούμε την εκτίμηση 2D πόζας από κάθε καρέ του βίντεο και το άλλο για να μετατρέψουμε αυτές τις 2D στάσεις σε 3D πόζες. Στη συνέχεια, υπολογίσαμε τη θέση του ανθρώπου ανά καρέ, βρίσκοντας το βάθος του ατόμου στην εικόνα. Ο συνδυασμός των τρισδιάστατων στάσεων και της θέσης του ατόμου στο χώρο είναι τα δεδομένα κίνησης που θέλαμε να βρούμε. Στη συνέχεια, εισάγοντας αυτά τα δεδομένα σε έναν Σκελετό που περιέχει όλα τα εκτιμώμενα οστά, μπορούμε να δημιουργήσουμε ένα αρχείο Bio-vision Hierarchy (BVH), το οποίο μπορεί να εισαχθεί στο σε όλες τις εφαρμογές που επεξεργάζονται τρισδιάστατα γραφικά. Σε αυτό το σημείο, το αρχείο BVH που δημιουργείται περιέχει θόρυβο από τις εκτιμήσεως των νευρωνικών δικτύων, επομένως προτείνουμε τη χρήση ορισμένων φίλτρων για την αφαίρεση αυτού του θορύβου χωρίς να επηρεάζονται οι πληροφορίες δεδομένων κίνησης. Επιπλέον, μετατρέψαμε τον κώδικα python σε μια Windows εφαρμογή για να δημιουργήσουμε ένα πολύ πιο φιλικό περιβάλλον στο χρήστη. Τέλος, δημιουργήσαμε κάποιες λειτουργίες μέσα σε αυτήν την εφαρμογή ώστε ο χρήστης να μπορεί να απεικονίζει και να επεξεργάζεται τα αποτελέσματα από τα αρχεία BVH.</efrbr-expression:summarizationOfContent><efrbr-expression:contextForTheExpression>Διπλωματική Εργασία</efrbr-expression:contextForTheExpression><efrbr-expression:useRestrictionsOnTheExpression type="creative-commons">http://creativecommons.org/licenses/by/4.0/</efrbr-expression:useRestrictionsOnTheExpression><efrbr-expression:note type="academic unit">Πολυτεχνείο Κρήτης::Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών</efrbr-expression:note></efrbr-expression:expression><efrbr-manifestation:manifestation identifier="https://dias.library.tuc.gr/view/93346"><efrbr-manifestation:titleOfTheManifestation>Christodoulidis_Kyriakos_Dip_2022.pdf</efrbr-manifestation:titleOfTheManifestation><efrbr-manifestation:publicationDistribution><efrbr-manifestation:placeOfPublicationDistribution type="distribution">Chania [Greece]</efrbr-manifestation:placeOfPublicationDistribution><efrbr-manifestation:publisherDistributor type="distributor">Library of TUC</efrbr-manifestation:publisherDistributor><efrbr-manifestation:dateOfPublicationDistribution>2022-09-14</efrbr-manifestation:dateOfPublicationDistribution></efrbr-manifestation:publicationDistribution><efrbr-manifestation:formOfCarrier>application/pdf</efrbr-manifestation:formOfCarrier><efrbr-manifestation:extentOfTheCarrier>13.9 MB</efrbr-manifestation:extentOfTheCarrier><efrbr-manifestation:accessRestrictionsOnTheManifestation>free</efrbr-manifestation:accessRestrictionsOnTheManifestation></efrbr-manifestation:manifestation><efrbr-person:person identifier="http://users.isc.tuc.gr/~kchristodoulidis"><efrbr-person:nameOfPerson vocabulary="TUC:LDAP">
            Christodoulidis Kyriakos
            Χριστοδουλιδης Κυριακος
         </efrbr-person:nameOfPerson></efrbr-person:person><efrbr-person:person identifier="http://users.isc.tuc.gr/~amania"><efrbr-person:nameOfPerson vocabulary="TUC:LDAP">
            Mania Aikaterini
            Μανια Αικατερινη
         </efrbr-person:nameOfPerson></efrbr-person:person><efrbr-person:person identifier="http://users.isc.tuc.gr/~gchalkiadakis"><efrbr-person:nameOfPerson vocabulary="TUC:LDAP">
            Chalkiadakis Georgios
            Χαλκιαδακης Γεωργιος
         </efrbr-person:nameOfPerson></efrbr-person:person><efrbr-person:person identifier="http://users.isc.tuc.gr/~lagoudakis"><efrbr-person:nameOfPerson vocabulary="TUC:LDAP">
            Lagoudakis Michail
            Λαγουδακης Μιχαηλ
         </efrbr-person:nameOfPerson></efrbr-person:person><efrbr-corporateBody:corporateBody identifier="1511A950-C01D-40AF-A38B-B4823DA534C0"><efrbr-corporateBody:nameOfTheCorporateBody vocabulary="">
            Πολυτεχνείο Κρήτης
            Technical University of Crete
         </efrbr-corporateBody:nameOfTheCorporateBody></efrbr-corporateBody:corporateBody><efrbr-concept:concept identifier="A4A6788F-F248-4AE3-BB37-22487C4A23EB"><efrbr-concept:termForTheConcept>
            Neural Networks
         </efrbr-concept:termForTheConcept></efrbr-concept:concept><efrbr-concept:concept identifier="B206D7E8-8CAA-4680-BB2D-C67D9924A714"><efrbr-concept:termForTheConcept>
            Motion Capture
         </efrbr-concept:termForTheConcept></efrbr-concept:concept></efrbr:entities><efrbr:relationships><efrbr-structure:structureRelations><efrbr-structure:realizedThrough sourceEntity="work" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="expression" targetURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F"/><efrbr-structure:embodiedIn sourceEntity="expression" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="manifestation" targetURI="http://purl.tuc.gr/dl/dias/FD9AAE12-EF03-4ACB-9DEC-9EC58A146CDB"/></efrbr-structure:structureRelations><efrbr-responsible:responsibleRelations><efrbr-responsible:createdBy sourceEntity="work" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="person" targetURI="http://users.isc.tuc.gr/~kchristodoulidis"/><efrbr-responsible:realizedBy sourceEntity="expression" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="person" targetURI="http://users.isc.tuc.gr/~kchristodoulidis" role="author"/><efrbr-responsible:realizedBy sourceEntity="expression" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="person" targetURI="http://users.isc.tuc.gr/~amania" role="http://purl.tuc.gr/dl/dias/vocabs/contributor-roles/1"/><efrbr-responsible:realizedBy sourceEntity="expression" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="person" targetURI="http://users.isc.tuc.gr/~gchalkiadakis" role="http://purl.tuc.gr/dl/dias/vocabs/contributor-roles/2"/><efrbr-responsible:realizedBy sourceEntity="expression" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="person" targetURI="http://users.isc.tuc.gr/~lagoudakis" role="http://purl.tuc.gr/dl/dias/vocabs/contributor-roles/2"/><efrbr-responsible:realizedBy sourceEntity="expression" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="person" targetURI="1511A950-C01D-40AF-A38B-B4823DA534C0" role="publisher"/></efrbr-responsible:responsibleRelations><efrbr-subject:subjectRelations><efrbr-subject:hasSubject sourceEntity="work" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="concept" targetURI="A4A6788F-F248-4AE3-BB37-22487C4A23EB"/><efrbr-subject:hasSubject sourceEntity="work" sourceURI="http://purl.tuc.gr/dl/dias/D8B034D2-F3EE-4A4E-8B25-1C4AFC513C6F" targetEntity="concept" targetURI="B206D7E8-8CAA-4680-BB2D-C67D9924A714"/></efrbr-subject:subjectRelations><efrbr-other:otherRelations/></efrbr:relationships></efrbr:recordSet>