Nuvola apps important.png Attention, suite à une faille de sécurité, les liens vers les serveurs d'exploration sont désactivés.

-

Attribut:A pour résumé

De H2PTM
Affichage de 17 pages utilisant cette propriété.
H
Cette présentation fait normalement suite à celle de Monsieur bernard Le Noêl (EDF, Direction des etudes et Recherches) qui définit les prinicipales de base de service APPLIDUC. en voici un bref résumé: :APPLIDUC ne réinvente ni n'empiète sur les développements existants mais intervient dans l'espace de l'utilisateur final. En effet celui-ci commence à avoir les moyens de développer lui-même ce qui l'intéresse; mais cela étend le risque de gaspillage et d'incohérence. Dans le même temps, l'évolution technique prémunit contre ces défauts en proposant une approche des développements du bas vers le haut. Le projet d'APPLIDUC est celui d'un service pour la mise en relation de coopérants, l'échange et l'intégration d'acquis, ou encore l'association des offres et des attentes. :Si l'accès à l'information et l'interaction avec l'utilisateur font partie de nos préoccupations, nous insistons aussi sur l'émission de l'information, car la clé de l'information sûre est près de sa source. Ainsi, un concept majeur d'APPLIDUC est l'AFFAIRE, qui est le siège de la responsabilité de l'information et du contrôle de son accès. :Les techniques considérés tentents à donner au responsable d'une source d'informations plus de moyens, plus de contrôle sur les risques et plus de convivialité. Les soucis d'économie et de cohérence invitent les sources voisines à partager ce qui mérite de l'être, sous une coordination alliant autonomie et rigueur. Cette organisation à la source (mémoire de groupe, validité-contrôle de la diffusion, etc.) est très différente de l'organisation qui généralise l'accès à l'information dans un monde ouvert et hétérogène. APPLIDUC conjugue les deux.  +
L’expression « document structuré » est très réductrice. Nous montrons, dans le cadre d’un travail spécifique en critique génétique, que les notions de graphe (et non simplement d’arbre), de vue, de documents actifs ajoutées à celles de liens hypertextuels permettent d’utiliser des documents structurés pour bien autre chose que leur édition.  +
L’éthique coopérative de l’Internet et le développement en son sein de l’hypertexte à travers le World-Wide Web induisent une circulation sans précédent des textes. Après avoir évoqué brièvement la question du droit d’auteur, nous étudierons l’appropriation par l’usager de trois types de textes – les œuvres littéraires du domaine public, les écrits scientifiques et les articles des conférences électroniques.  +
Ce papier présente un processus générique pour construire un hypermédia, accessible via le Web. Ce processus s’appuie sur le model navigationnel et organisationnel de l’hypermédia final, permettant d’identifier les éléments (documents, liens hypertextes) devant être systématiquement produits. Nous montrons par ailleurs comment le principe de la réécriture peut être utilisé pour supporter ce processus, et ainsi fournir des outils permettant d’automatiser certaines tâches liées à la production d’un hypermédia.  +
Large Web documents cause problem for their users, and for their author. The most common user problem is getting lost, due to the convoluted organisation of the document, and poor navigational and orientation support tools. The author’s main problem is deciding on a suitable organization, which is expressive enough while not creating an impossible burden of building and maintaining links. These problems are addressed by curl, a tool for automatically creating the organizational links between the pages of a Web document. curl utilises the metaphor of a book to organise pages, which is both powerful and familiar. Typically, every page is linked to its nearest siblings, its parents and the top page of the document. Pages can contain two kinds of content lists, and special pages are added for lists t o keywords, figures, tables, and new pages. There is also a search engine from every page.  +
Les modes de navigation sont ici examinés selon un double point de vue : d’une part, la navigation dans l’information, telle qu’elle se présente dans la vie quotidienne (conversations, textes, images, publicités) et, d’autre part, les modes permis en hyper-texte. Les contraintes de ces derniers peuvent paraître pesantes. Est-il possible de les alléger, de les rapprocher de nos modes intuitifs de navigation ?  +
Cet article présente une méthode de conception de documents hypermédias. Les méthodes existantes montrent l’intérêt de modéliser séparément des différents aspects impliqués dans un hypermédia : données, navigation, présentation, interaction. Pour permettre ces différentes modélisations, elles proposent des langages de spécification, mais ne précisent pas comment y parvenir. Un concepteur non expérimenté a pourtant besoin de suivre un procédé pour arriver à une telle modélisation, indépendamment de tout langage. C’est pourquoi ce papier présente les processus de modélisation permettant d’obtenir ces différents modèles. Le principe est de modéliser des situations de lecture, le modèle de navigation émergeant alors de la mise en facteur de différentes situations de lecture.  +
Nous décrivons ici des outils de cartographie neuromimétique ainsi qu'un générateur d'applications hypertextes pour le Web (HENOCH) basé sur un modèle relationnel adapté à l'analyse de l'information. Ces outils font partie d'une plate-forme informatique opérationnelle basée sur SGML comprenant également des outils linguistiques et statistiques. Nous appliquons les réseaux de neurones artificiels PERCEPTRON et KOHONEN au domaine de la cartographie. Nous les comparons sur un exemple avec une carte obtenue par ACP. Nous décrivons ensuite le système HENOCH. Celui ci assure deux fonctions principales : alimenter un SGBD à partir de documents SGML et établir une interface WWW-SGBD. Un exemple illustre deux types de navigation complémentaires pour l'analyse de l'information : l'exploration intuitive basée sur la métaphore de la carte, la recherche d'informations orientée par la question « Qui fait Quoi et Où, ..»  +
La documentation technique sur les produits du bâtiment est une des composantes d’un système complexe d’échanges que représente l’activité de conception et de construction dans le domaine du bâtiment. La gestion et la manipulation de ce type de documentation nécessitent l’utilisation d’un outil permettant la consultation, la visualisation, l’exploration, la recherche et l’exportation d’informations multimédia. Les technologies hypermédias sont adaptées à ce type de manipulation d’information si elles reposent sur une organisation cohérente de l’information. Nous proposons un modèle de structuration hypermédia des documents techniques. Ce modèle est associé à une méthode de conception d’hypermédia adaptée à la gestion de documents, ils ont été mis en œuvre pour la réalisation de l’application DOMITEC décrite dans cet article.  +
Nous présentons une méthode de classification thématique de grandes collections de textes, indépendante du langage, permettant de créer des interfaces de navigation hypertextuelles dans ces collections, quelle que soit la langue utilisée. Cette méthode caractérise les textes par leurs fréquences de n-grammes (séquences de n-caractères consécutifs). Plusieurs variantes de construction des vecteurs-textes, et de pondération de ceux-ci, sont présentées et comparées aux résultats obtenus avec une représentation des documents par la fréquence de leurs termes d’indexation. L’analyse de ces données assurée par un modèle neuronal développé (LEL 94).  +
Internet connaît une croissance très importante au fil des temps, il est aujourd’hui essentiel de disposer d’outils capables de guider les utilisateurs lors de leurs navigations sur le Web. Quelques outils expérimentaux ont déjà été conçus en ce sens. Nous présentons ici une approche de l’aide à la navigation sur le Web basée sur la programmation en logique inductive. Le système INDWEB, présenté dans cet article est capable d’apprendre des concepts, exprimés sous forme de clauses de Horn, caractérisant les pages intéressantes pour un utilisateur ou un groupe d’utilisateurs en fonction de critères sur ces pages mais aussi sur ces utilisateurs ou groupes d’utilisateurs. Le système, disposant de cette connaissance, peut alors aider l’utilisateur dans sa navigation dans les hypermédias du Web.  +
Suite aux résultats obtenus avec le logiciel prototype HyperVidéo, pour la mise en relation automatique de données textuelles structurées et de séquences vidéos numériques, ma lise en œuvre opérationnelle de ces mécanismes hypertextes et hypermédias est effectuée dans le cadre de la composition d’un poste de travail dédié au métier de l’ergonome. Pour offrir une solution de navigation et d’indexation d’images animées, une partie de ce projet s’est concrétisée par le développement d’un éditeur de documents hypermédias structurés, nommé HyVidéo. Cet éditeur a été réalisé à partir d’une analyse de l’activité de l’ergonome et d’une modélisation des documents de travail.  +
Un texte est l’expression d’une rationalité locale particulière, laquelle peut être partiellement saisie par l’indexicalité du texte. L’indexicalité ne se réduit pas à un index ; elle inclut le sens particulier des mots dans la rationalité locale. Les textes issus de rationalités locales différentes ne peuvent être correctement reliés entre eux par de simples indexs généraux. C’est pourquoi il est proposé de constituer des simulacres rationnels locaux, reflétant l’indexicalité propre des textes et jouant un rôle d’intermédiaire diplomatique dans les relations entre rationalités locales.  +
Nous présentons un système d’hypertexte pour la génération de modèles conceptuels de connaissances sur la base de messages formulés par l’utilisateur en langage formel. Ce langage se crée par l’utilisateur et reste toujours extensible. Dans l’article nous analysons la structure du système, le langage formel et le mécanisme de recherche dans la mémoire conceptuelle du système.  +
Internet est plus spécifiquement WWW constitue un immense réseau d’informations dans lequel toute forme d’investigation documentaire couvrant un domaine suffisamment large et impliquant des réponses précises est loin d’être évidente, principalement à cause de la désorganisation de l’information que l’on y trouve. Nous montrons ci-après que l’utilisation conjointe des connaissances propres au domaine à investiguer et des moteurs de recherche est une première approche pour la mise en place d’un système de recherche d’information efficace sur Internet. ;Mots-clés(auteur): Internet, WWW, système de recherché d’information, graphe de navigation hypertexte, moteurs de recherche, analyse statistique de l’information, agrégation par simple lien.  +
Hypertext research has undergone many changes since the early forays into hypertext theory, with many developments in linking models and presentation techniques. Theorists have proposed many changes to the familiar node-link view of hypertext, yet the methods for defining anchors have remained largely unchanged. The anchoring techniques seen in the majority of hypertext applications have a number of disadvantages which can limit the value of hypertext for complex applications. This paper introduces the idea of fuzzy anchors which use the idea of fuzzy set theory to refine the notion of hypertext anchors. This provides a more flexible and expressive way of defining anchors in hypertext systems, and offers additional benefits to the authors and users of hypertext applications. The discussion introduces the idea of adaptive anchors, and shows how fuzzy anchors can be used to respond to user interaction to provide a less static notion of hypertext.  +
V
L’expression « document structuré » est très réductrice. Nous montrons, dans le cadre d’un travail spécifique en critique génétique, que les notions de graphe (et non simplement d’arbre), de vue, de documents actifs ajoutées à celles de liens hypertextuels permettent d’utiliser des documents structurés pour bien autre chose que leur édition.  +