Serveur d'exploration sur les dispositifs haptiques

Attention, ce site est en cours de développement !
Attention, site généré par des moyens informatiques à partir de corpus bruts.
Les informations ne sont donc pas validées.

Contribution to the study of haptic feedback for improving the audiovisual experience

Identifieur interne : 000136 ( Hal/Curation ); précédent : 000135; suivant : 000137

Contribution to the study of haptic feedback for improving the audiovisual experience

Auteurs : Fabien Danieau [France]

Source :

RBID : Hal:tel-00951094

Descripteurs français

Abstract

Haptic technology, stimulating the sense of touch, is used for years in virtual reality and teleoperation applications for enhancing the user immersion. Yet it is still underused in audiovisual systems such as movie theaters. The objective of this thesis is thus to exploit the potential of haptics for audiovisual content. In the first part of this Ph.D. thesis, we address the haptic rendering in video viewing context. We first present a new device providing 6 degrees of freedom motion effects. Instead of moving the whole user's body, as it is traditionally done with motion platform, only the head and hands are stimulated. This device allows thus to enrich the audiovisual experience. Then we focus on the haptic rendering of haptic-audiovisuals. The combination of haptic effects and video sequences yields new challenges for the haptic rendering. We introduce a new haptic rendering algorithm to tackle these issues. The second part of this Ph.D. is dedicated to the production of haptic effects. We first present of novel authoring tool. Three editing methods are proposed to create motion effects and to synchronize them to a video. Besides, the tool allows to preview motion effects thanks to a force-feedback device. Then we study combinations of haptic feedback and audiovisual content. In a new approach, the Haptic Cinematography, we explore the potential of haptic effects to create new effects dedicated to movie makers.

Url:

Links toward previous steps (curation, corpus...)


Links to Exploration step

Hal:tel-00951094

Le document en format XML

<record>
<TEI>
<teiHeader>
<fileDesc>
<titleStmt>
<title xml:lang="en">Contribution to the study of haptic feedback for improving the audiovisual experience</title>
<title xml:lang="fr">Contribution à l'étude des retours haptiques pour améliorer l'expérience audiovisuelle</title>
<author>
<name sortKey="Danieau, Fabien" sort="Danieau, Fabien" uniqKey="Danieau F" first="Fabien" last="Danieau">Fabien Danieau</name>
<affiliation wicri:level="1">
<hal:affiliation type="laboratory" xml:id="struct-118587" status="VALID">
<orgName>Technicolor R & I [Cesson Sévigné]</orgName>
<desc>
<address>
<addrLine>975 avenue des champs blancs CS 17616 35576 Cesson Sévigné</addrLine>
<country key="FR"></country>
</address>
<ref type="url">http://www.technicolor.com/en/innovation/research-innovation/rennes</ref>
</desc>
<listRelation>
<relation active="#struct-367121" type="direct"></relation>
</listRelation>
<tutelles>
<tutelle active="#struct-367121" type="direct">
<org type="institution" xml:id="struct-367121" status="VALID">
<orgName>Technicolor</orgName>
<desc>
<address>
<country key="FR"></country>
</address>
<ref type="url">http://www.technicolor.com/fr/</ref>
</desc>
</org>
</tutelle>
</tutelles>
</hal:affiliation>
<country>France</country>
</affiliation>
</author>
</titleStmt>
<publicationStmt>
<idno type="wicri:source">HAL</idno>
<idno type="RBID">Hal:tel-00951094</idno>
<idno type="halId">tel-00951094</idno>
<idno type="halUri">https://tel.archives-ouvertes.fr/tel-00951094</idno>
<idno type="url">https://tel.archives-ouvertes.fr/tel-00951094</idno>
<date when="2014-02-13">2014-02-13</date>
<idno type="wicri:Area/Hal/Corpus">000136</idno>
<idno type="wicri:Area/Hal/Curation">000136</idno>
</publicationStmt>
<sourceDesc>
<biblStruct>
<analytic>
<title xml:lang="en">Contribution to the study of haptic feedback for improving the audiovisual experience</title>
<title xml:lang="fr">Contribution à l'étude des retours haptiques pour améliorer l'expérience audiovisuelle</title>
<author>
<name sortKey="Danieau, Fabien" sort="Danieau, Fabien" uniqKey="Danieau F" first="Fabien" last="Danieau">Fabien Danieau</name>
<affiliation wicri:level="1">
<hal:affiliation type="laboratory" xml:id="struct-118587" status="VALID">
<orgName>Technicolor R & I [Cesson Sévigné]</orgName>
<desc>
<address>
<addrLine>975 avenue des champs blancs CS 17616 35576 Cesson Sévigné</addrLine>
<country key="FR"></country>
</address>
<ref type="url">http://www.technicolor.com/en/innovation/research-innovation/rennes</ref>
</desc>
<listRelation>
<relation active="#struct-367121" type="direct"></relation>
</listRelation>
<tutelles>
<tutelle active="#struct-367121" type="direct">
<org type="institution" xml:id="struct-367121" status="VALID">
<orgName>Technicolor</orgName>
<desc>
<address>
<country key="FR"></country>
</address>
<ref type="url">http://www.technicolor.com/fr/</ref>
</desc>
</org>
</tutelle>
</tutelles>
</hal:affiliation>
<country>France</country>
</affiliation>
</author>
</analytic>
</biblStruct>
</sourceDesc>
</fileDesc>
<profileDesc>
<textClass>
<keywords scheme="mix" xml:lang="fr">
<term>HAV</term>
<term>cinéma</term>
<term>expérience audiovisuelle</term>
<term>haptique</term>
<term>études utilisateur</term>
</keywords>
</textClass>
</profileDesc>
</teiHeader>
<front>
<div type="abstract" xml:lang="en">Haptic technology, stimulating the sense of touch, is used for years in virtual reality and teleoperation applications for enhancing the user immersion. Yet it is still underused in audiovisual systems such as movie theaters. The objective of this thesis is thus to exploit the potential of haptics for audiovisual content. In the first part of this Ph.D. thesis, we address the haptic rendering in video viewing context. We first present a new device providing 6 degrees of freedom motion effects. Instead of moving the whole user's body, as it is traditionally done with motion platform, only the head and hands are stimulated. This device allows thus to enrich the audiovisual experience. Then we focus on the haptic rendering of haptic-audiovisuals. The combination of haptic effects and video sequences yields new challenges for the haptic rendering. We introduce a new haptic rendering algorithm to tackle these issues. The second part of this Ph.D. is dedicated to the production of haptic effects. We first present of novel authoring tool. Three editing methods are proposed to create motion effects and to synchronize them to a video. Besides, the tool allows to preview motion effects thanks to a force-feedback device. Then we study combinations of haptic feedback and audiovisual content. In a new approach, the Haptic Cinematography, we explore the potential of haptic effects to create new effects dedicated to movie makers.</div>
</front>
</TEI>
<hal api="V3">
<titleStmt>
<title xml:lang="en">Contribution to the study of haptic feedback for improving the audiovisual experience</title>
<title xml:lang="fr">Contribution à l'étude des retours haptiques pour améliorer l'expérience audiovisuelle</title>
<author role="aut">
<persName>
<forename type="first">Fabien</forename>
<surname>Danieau</surname>
</persName>
<email>fabien.danieau@technicolor.com</email>
<ptr type="url" target="http://fdanieau.free.fr"></ptr>
<idno type="halauthor">989165</idno>
<affiliation ref="#struct-118587"></affiliation>
<affiliation ref="#struct-210616"></affiliation>
</author>
<editor role="depositor">
<persName>
<forename>Fabien</forename>
<surname>Danieau</surname>
</persName>
<email>fabien.danieau@inria.fr</email>
</editor>
</titleStmt>
<editionStmt>
<edition n="v1" type="current">
<date type="whenSubmitted">2014-02-24 11:02:28</date>
<date type="whenModified">2015-11-03 16:15:05</date>
<date type="whenReleased">2014-02-25 09:26:20</date>
<date type="whenProduced">2014-02-13</date>
<date type="whenEndEmbargoed">2014-02-24</date>
<ref type="file" target="https://tel.archives-ouvertes.fr/tel-00951094/document">
<date notBefore="2014-02-24"></date>
</ref>
<ref type="file" n="1" target="https://tel.archives-ouvertes.fr/tel-00951094/file/TheseFabienDanieauFinal.pdf">
<date notBefore="2014-02-24"></date>
</ref>
</edition>
<respStmt>
<resp>contributor</resp>
<name key="178960">
<persName>
<forename>Fabien</forename>
<surname>Danieau</surname>
</persName>
<email>fabien.danieau@inria.fr</email>
</name>
</respStmt>
</editionStmt>
<publicationStmt>
<distributor>CCSD</distributor>
<idno type="halId">tel-00951094</idno>
<idno type="halUri">https://tel.archives-ouvertes.fr/tel-00951094</idno>
<idno type="halBibtex">danieau:tel-00951094</idno>
<idno type="halRefHtml">Interface homme-machine [cs.HC]. Université Rennes 1, 2014. Français</idno>
<idno type="halRef">Interface homme-machine [cs.HC]. Université Rennes 1, 2014. Français</idno>
</publicationStmt>
<seriesStmt>
<idno type="stamp" n="UNIV-RENNES1">Université de Rennes 1</idno>
<idno type="stamp" n="INRIA">INRIA - Institut National de Recherche en Informatique et en Automatique</idno>
<idno type="stamp" n="IRISA">Irisa</idno>
<idno type="stamp" n="IRISA_SET">IRISA_SET</idno>
<idno type="stamp" n="IRISA-D6">MEDIA ET INTERACTIONS </idno>
<idno type="stamp" n="CNRS">CNRS - Centre national de la recherche scientifique</idno>
<idno type="stamp" n="UNIV-UBS">Université de Bretagne Sud</idno>
<idno type="stamp" n="INSTITUT-TELECOM">Institut Télécom</idno>
<idno type="stamp" n="SUPELEC">SUPELEC</idno>
<idno type="stamp" n="INRIA2">INRIA 2</idno>
<idno type="stamp" n="INRIA_TEST">INRIA - Institut National de Recherche en Informatique et en Automatique</idno>
<idno type="stamp" n="UR1-THESES" p="UNIV-RENNES1">Thèses de l'Université de Rennes 1</idno>
</seriesStmt>
<notesStmt></notesStmt>
<sourceDesc>
<biblStruct>
<analytic>
<title xml:lang="en">Contribution to the study of haptic feedback for improving the audiovisual experience</title>
<title xml:lang="fr">Contribution à l'étude des retours haptiques pour améliorer l'expérience audiovisuelle</title>
<author role="aut">
<persName>
<forename type="first">Fabien</forename>
<surname>Danieau</surname>
</persName>
<email>fabien.danieau@technicolor.com</email>
<ptr type="url" target="http://fdanieau.free.fr"></ptr>
<idno type="halAuthorId">989165</idno>
<affiliation ref="#struct-118587"></affiliation>
<affiliation ref="#struct-210616"></affiliation>
</author>
</analytic>
<monogr>
<imprint>
<date type="dateDefended">2014-02-13</date>
</imprint>
<authority type="institution">Université Rennes 1</authority>
<authority type="school">Mathématiques, Télécommunications, Informatique, Signal, Systèmes, Électronique</authority>
<authority type="supervisor">Anatole Lécuyer(anatole.lecuyer@inria.fr)</authority>
<authority type="jury">Pr. Sriram SUBRAMANIAN, Professeur a l'Université de Bristol (Président)</authority>
<authority type="jury">Pr. Gery CASIEZ, Professeur a l'Universite de Lille 1 (Rapporteur)</authority>
<authority type="jury">Pr. Abdulmotaleb EL SADDIK, Professeur a l'Université d'Ottawa (Rapporteur)</authority>
<authority type="jury">Pr. Alain BERTHOZ, Professeur au College de France (Examinateur)</authority>
<authority type="jury">Dr. Anatole LECUYER, Directeur de Recherches chez Inria (Directeur de thèse)</authority>
<authority type="jury">Dr. Marc CHRISTIE Maitre de Conferences a l'Université de Rennes 1 (Encadrant)</authority>
<authority type="jury">Dr. Philippe GUILLOTEL, Chercheur Senior a Technicolor (Encadrant)</authority>
<authority type="jury">Dr. Julien FLEUREAU, Chercheur Senior a Technicolor (Encadrant)</authority>
<authority type="jury">Dr. Nicolas Mollet, Chercheur Senior a Technicolor (Membre invité)</authority>
</monogr>
</biblStruct>
</sourceDesc>
<profileDesc>
<langUsage>
<language ident="fr">French</language>
</langUsage>
<textClass>
<keywords scheme="author">
<term xml:lang="fr">haptique</term>
<term xml:lang="fr">expérience audiovisuelle</term>
<term xml:lang="fr">cinéma</term>
<term xml:lang="fr">HAV</term>
<term xml:lang="fr">études utilisateur</term>
</keywords>
<classCode scheme="halDomain" n="info.info-hc">Computer Science [cs]/Human-Computer Interaction [cs.HC]</classCode>
<classCode scheme="halTypology" n="THESE">Theses</classCode>
</textClass>
<abstract xml:lang="en">Haptic technology, stimulating the sense of touch, is used for years in virtual reality and teleoperation applications for enhancing the user immersion. Yet it is still underused in audiovisual systems such as movie theaters. The objective of this thesis is thus to exploit the potential of haptics for audiovisual content. In the first part of this Ph.D. thesis, we address the haptic rendering in video viewing context. We first present a new device providing 6 degrees of freedom motion effects. Instead of moving the whole user's body, as it is traditionally done with motion platform, only the head and hands are stimulated. This device allows thus to enrich the audiovisual experience. Then we focus on the haptic rendering of haptic-audiovisuals. The combination of haptic effects and video sequences yields new challenges for the haptic rendering. We introduce a new haptic rendering algorithm to tackle these issues. The second part of this Ph.D. is dedicated to the production of haptic effects. We first present of novel authoring tool. Three editing methods are proposed to create motion effects and to synchronize them to a video. Besides, the tool allows to preview motion effects thanks to a force-feedback device. Then we study combinations of haptic feedback and audiovisual content. In a new approach, the Haptic Cinematography, we explore the potential of haptic effects to create new effects dedicated to movie makers.</abstract>
<abstract xml:lang="fr">Les technologies haptiques, stimulant le sens du toucher, sont utilisées depuis des années dans des applications de réalité virtuelle et de téléopération pour accroître l'immersion de l'utilisateur. Elles sont en revanche très peu employées dans les systèmes audiovisuels comme les cinémas. L'objectif de cette thèse est d'exploiter le potentiel des retours haptiques pour les contenus audiovisuels. Dans la première partie de la thèse, nous nous intéressons au rendu d'effets haptiques lors du visionnage d'une vidéo. Nous présentons tout d'abord un appareil générant des sensations de mouvements à 6 degrés de liberté. Au lieu de mettre tout le corps de l'utilisateur en mouvement, comme cela est fait avec les simulateurs de mouvements traditionnels, seulement la tête et les mains sont stimulées. Ce dispositif permet ainsi d'enrichir l'expérience audiovisuelle. Nous nous intéressons ensuite aux algorithmes de rendu d'effets haptiques dans un contexte audiovisuel. La combinaison de retours haptiques et de séquences vidéo amène de nouveaux problèmes lors du rendu haptique. Nous proposons un nouvel algorithme adapté à ce contexte. Dans la seconde partie de la thèse, nous nous concentrons sur la production d'effets haptiques. Premièrement nous présentons un nouvel outil d'édition graphique. Celui-ci propose trois méthodes d'interaction pour créer des effets de mouvement et pour les synchroniser avec une vidéo. De plus, cet outil permet de ressentir les effets créés. Ensuite nous nous penchons sur les combinaisons haptiques et audiovisuelles. Dans une nouvelle approche nommée Cinématographie Haptique, nous explorons le potentiel des effets haptiques pour créer de nouveaux effets dédiés aux réalisateurs de films.</abstract>
<particDesc>
<org type="consortium">CIFRE Technicolor</org>
</particDesc>
</profileDesc>
</hal>
</record>

Pour manipuler ce document sous Unix (Dilib)

EXPLOR_STEP=$WICRI_ROOT/Ticri/CIDE/explor/HapticV1/Data/Hal/Curation
HfdSelect -h $EXPLOR_STEP/biblio.hfd -nk 000136 | SxmlIndent | more

Ou

HfdSelect -h $EXPLOR_AREA/Data/Hal/Curation/biblio.hfd -nk 000136 | SxmlIndent | more

Pour mettre un lien sur cette page dans le réseau Wicri

{{Explor lien
   |wiki=    Ticri/CIDE
   |area=    HapticV1
   |flux=    Hal
   |étape=   Curation
   |type=    RBID
   |clé=     Hal:tel-00951094
   |texte=   Contribution to the study of haptic feedback for improving the audiovisual experience
}}

Wicri

This area was generated with Dilib version V0.6.23.
Data generation: Mon Jun 13 01:09:46 2016. Site generation: Wed Mar 6 09:54:07 2024