<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Jacques+Ducloy</id>
	<title>Wicri Informatique - Contributions de l’utilisateur [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Jacques+Ducloy"/>
	<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php/Sp%C3%A9cial:Contributions/Jacques_Ducloy"/>
	<updated>2026-05-08T10:42:12Z</updated>
	<subtitle>Contributions de l’utilisateur</subtitle>
	<generator>MediaWiki 1.31.10</generator>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=IBM_650&amp;diff=5293</id>
		<title>IBM 650</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=IBM_650&amp;diff=5293"/>
		<updated>2025-12-21T16:00:48Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Wicri avertissement création lien}} &lt;br /&gt;
L''''IBM 650''' est le deuxième [[ordinateur]] commercialisé par la société [[International Business Machines Corporation|IBM]] (le premier ayant été l'[[IBM 701]]). Cet ordinateur était le premier au monde à avoir été fabriqué en série. Il a été annoncé en [[1953]], et plus de {{formatnum:2000}} unités ont été produites entre la première livraison en 1954 et l'arrêt de la production en [[1962]]. &lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, ordinateur}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}||Wikipédia]]&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=IBM_650&amp;diff=5292</id>
		<title>IBM 650</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=IBM_650&amp;diff=5292"/>
		<updated>2025-12-21T15:56:19Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Wicri avertissement création lien}} &lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, ordinateur}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}||Wikipédia]]&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=IBM_650&amp;diff=5291</id>
		<title>IBM 650</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=IBM_650&amp;diff=5291"/>
		<updated>2025-12-21T15:55:54Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Wicri avertissement création lien}} &lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, ordinateur}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}]]&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Centre_national_de_la_recherche_scientifique&amp;diff=5290</id>
		<title>Centre national de la recherche scientifique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Centre_national_de_la_recherche_scientifique&amp;diff=5290"/>
		<updated>2025-12-05T14:08:13Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;small&amp;gt;{{Accès géographique}} &amp;gt; [[Europe]] &amp;gt; [[France]] &amp;gt; [[Centre national de la recherche scientifique|CNRS]]&amp;lt;/small&amp;gt;&amp;lt;hr/&amp;gt;&lt;br /&gt;
{{Infobox sémantique établissement&lt;br /&gt;
 |Sigle=CNRS&lt;br /&gt;
 |Nom=Centre national de la recherche scientifique&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Cette page devrait introduire les actions du CNRS en informatique.&lt;br /&gt;
&lt;br /&gt;
==Directions et instituts intervenant dans les TICRI==&lt;br /&gt;
&lt;br /&gt;
* l'[[Institut des sciences informatiques et de leurs interactions]] (INS2I)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, organisme}}&lt;br /&gt;
{{Wicri voir|référence=France}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Cyclades_(r%C3%A9seau)&amp;diff=5289</id>
		<title>Cyclades (réseau)</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Cyclades_(r%C3%A9seau)&amp;diff=5289"/>
		<updated>2025-10-25T11:53:05Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Repères historiques */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Wicri avertissement création lien}}&lt;br /&gt;
[[File:CYCLADES - en.png|300px|right|thumb|Le projet Cyclades en 1973]]&lt;br /&gt;
'''Cyclades''' est un réseau d'ordinateurs [[France|français]] dans les années 1970.&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
* 1966, Aux États-Unis, lancement du projet de réseau d'ordinateurs Arpanet. &lt;br /&gt;
* 1969, Premières expérimentation d'Arpanet,&lt;br /&gt;
* 1970, Dans le cadre du Plan Calcul, début des réflexions sur un réseau français,&lt;br /&gt;
* 1971, L'Iria recrute Louis Pouzin &lt;br /&gt;
* 1972,&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir|dec=réseau d'ordinateurs}}&lt;br /&gt;
&lt;br /&gt;
Ce réseau est &lt;br /&gt;
* introduit sur {{Wicri lien|wiki=Wicri}} ;&lt;br /&gt;
* cité sur {{Wicri lien|wiki=SIC}}.&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* https://www.inria.fr/fr/entre-stanford-et-cyclades-une-vision-transatlantique-de-la-creation-dinternet&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipédia]]&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Cyclades_(r%C3%A9seau)&amp;diff=5288</id>
		<title>Cyclades (réseau)</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Cyclades_(r%C3%A9seau)&amp;diff=5288"/>
		<updated>2025-10-25T11:41:42Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Wicri avertissement création lien}}&lt;br /&gt;
[[File:CYCLADES - en.png|300px|right|thumb|Le projet Cyclades en 1973]]&lt;br /&gt;
'''Cyclades''' est un réseau d'ordinateurs [[France|français]] dans les années 1970.&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
* 1966, Aux États-Unis, lancement du projet de réseau d'ordinateurs Arpanet. &lt;br /&gt;
* 1969, premières expérimentation d'Arpanet,&lt;br /&gt;
* 1970,&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir|dec=réseau d'ordinateurs}}&lt;br /&gt;
&lt;br /&gt;
Ce réseau est &lt;br /&gt;
* introduit sur {{Wicri lien|wiki=Wicri}} ;&lt;br /&gt;
* cité sur {{Wicri lien|wiki=SIC}}.&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* https://www.inria.fr/fr/entre-stanford-et-cyclades-une-vision-transatlantique-de-la-creation-dinternet&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipédia]]&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Cyclades_(r%C3%A9seau)&amp;diff=5287</id>
		<title>Cyclades (réseau)</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Cyclades_(r%C3%A9seau)&amp;diff=5287"/>
		<updated>2025-10-25T11:36:28Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[File:CYCLADES - en.png|300px|right|thumb|Le projet Cyclades en 1973]]&lt;br /&gt;
'''Cyclades''' est un réseau d'ordinateurs [[France|français]] dans les années 1970.&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
* 1966, Aux États-Unis, lancement du projet de réseau d'ordinateurs Arpanet. &lt;br /&gt;
* 1969, premières expérimentation d'Arpanet,&lt;br /&gt;
* 1970,&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir|dec=réseau d'ordinateurs}}&lt;br /&gt;
&lt;br /&gt;
Ce réseau est &lt;br /&gt;
* introduit sur {{Wicri lien|wiki=Wicri}} ;&lt;br /&gt;
* cité sur {{Wicri lien|wiki=SIC}}.&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* https://www.inria.fr/fr/entre-stanford-et-cyclades-une-vision-transatlantique-de-la-creation-dinternet&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipédia]]&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5286</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5286"/>
		<updated>2025-09-16T21:49:15Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
[[Fichier:GRETSI 1991 8 6-NS 1778 1.pdf|250px|page=1|right|thumb|L'article original]]&lt;br /&gt;
__TOC__&lt;br /&gt;
==Avant-propos==&lt;br /&gt;
Cette communication est en fait extraite d'un article plus complet, publié dans la revue [[Traitement du Signal|Traitement du signal (revue)]] en 1991.&lt;br /&gt;
&lt;br /&gt;
Cette revue est éditée par l'association GRETSI (Groupe de Recherche et d’Études de Traitement du Signal et des Images)&amp;lt;ref&amp;gt;Le GRETSI offre ses articles publiés avant 2017 (à la date de rédaction de cet article) en libre accès.&amp;lt;/ref&amp;gt;&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|20}}{{Corps article/Numéro Page droite|69}}&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement &amp;lt;math&amp;gt;2^j-1&amp;lt;/math&amp;gt; zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}] &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|6}}]&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|7}}].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite du paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|22}}{{Corps article/Numéro Page droite|71}}&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|23}}{{Corps article/Numéro Page droite|72}}&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Bulletin_de_l%27Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5285</id>
		<title>Bulletin de l'Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Bulletin_de_l%27Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5285"/>
		<updated>2025-09-16T21:45:57Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : Page créée avec « {{ALS/Bulletin/En-tête|association=Lorraine }} {{Wicri avertissement création lien}} {{Infobox sémantique revue  |Editeur=Académie lorraine des sciences }} »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Wicri avertissement création lien}}&lt;br /&gt;
{{Infobox sémantique revue&lt;br /&gt;
 |Editeur=Académie lorraine des sciences&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5284</id>
		<title>Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5284"/>
		<updated>2025-09-16T21:42:02Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Repères historiques */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Infobox sémantique organisme&lt;br /&gt;
|Logo=Logo ALS.jpg&lt;br /&gt;
|Ville=Nancy}}&lt;br /&gt;
&lt;br /&gt;
L''''Académie lorraine des sciences''' ('''ALS''') est une société savante basée à [[Nancy]] en Lorraine.&lt;br /&gt;
&lt;br /&gt;
Elle définit ainsi son statut social : &lt;br /&gt;
:''La Société a pour but les progrès et la diffusion des sciences mathématiques, physiques et naturelles dans toutes leurs branches théoriques et appliquées. Elle y concourt par ses travaux et ses publications.''&amp;lt;ref&amp;gt;Voir le site de l'ALS : http://als.univ-lorraine.fr/&amp;lt;/ref&amp;gt;&lt;br /&gt;
==L'Académie lorraine des sciences et l'informatique==&lt;br /&gt;
Une des sections de l'ALS mentionne explicitement l'informatique.&lt;br /&gt;
&lt;br /&gt;
Un ensemble d'articles sont dupliqués sur ce wiki, voir la page [[Collection ALS]].&lt;br /&gt;
&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
L'Académie lorraine des sciences est issue de deux autres sociétés successives.&lt;br /&gt;
===Société des sciences naturelles de Strasbourg===&lt;br /&gt;
Elle a été créée en 1828 à [[A pour localité citée::Strasbourg]].&lt;br /&gt;
&lt;br /&gt;
Elle n'a donc pas d'activité relative à l'Informatique.&lt;br /&gt;
&lt;br /&gt;
Pour en savoir plus voir sur le wiki {{Wicri lien|wiki=Soc Grand Est|page=Société des sciences naturelles de Strasbourg}}.&lt;br /&gt;
&lt;br /&gt;
===Société des sciences de Nancy===&lt;br /&gt;
&lt;br /&gt;
Suite à la guerre de 1870, la Société des sciences naturelles de Strasbourg s'est transférée à Nancy pour devenir la Société des sciences de Nancy.&lt;br /&gt;
&lt;br /&gt;
Elle a changé de statuts en 1963 pour devenir l'Académie lorraine des sciences.&lt;br /&gt;
&lt;br /&gt;
Son activité relative à l'informatique est donc marginale.&lt;br /&gt;
&lt;br /&gt;
Pour en savoir plus voir sur le wiki {{Wicri lien|wiki=Soc Grand Est|page=Société des sciences de Nancy}}.&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Mod%C3%A8le:ALS/Bulletin/En-t%C3%AAte&amp;diff=5283</id>
		<title>Modèle:ALS/Bulletin/En-tête</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Mod%C3%A8le:ALS/Bulletin/En-t%C3%AAte&amp;diff=5283"/>
		<updated>2025-09-16T21:40:47Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;div style=&amp;quot;width:{{{width|auto}}};margin-bottom:1.25em;border:1px solid #AA8833;  background:transparen;padding:0&amp;quot;&amp;gt;&lt;br /&gt;
{|width=100%&lt;br /&gt;
|-&lt;br /&gt;
|width=10%|[[Fichier:Logo ALS.jpg|55px|left|link=Académie lorraine des sciences]]&lt;br /&gt;
|width=80%|&amp;lt;center&amp;gt;&amp;lt;big&amp;gt;'''[[Académie lorraine des sciences]]'''&amp;lt;/big&amp;gt; [ [[Collection ALS|Accès aux collections]] ] &amp;lt;br/&amp;gt;&amp;lt;!--&lt;br /&gt;
--&amp;gt;  {{#switch: {{{association|default}}}&lt;br /&gt;
 |Strasbourg=&amp;lt;big&amp;gt;'''[[Académie lorraine des sciences#Société des sciences naturelles de Strasbourg|Société des sciences naturelles de Strasbourg]]'''&amp;lt;/big&amp;gt; // // [[Société des sciences de Nancy]]  // [[Académie lorraine des sciences]]&lt;br /&gt;
 |Nancy=[[Société des sciences naturelles de Strasbourg]] // &amp;lt;big&amp;gt;'''[[Société des sciences de Nancy]]'''&amp;lt;/big&amp;gt; // [[Académie lorraine des sciences]]&lt;br /&gt;
 |Lorraine=[[Académie lorraine des sciences#Société des sciences naturelles de Strasbourg|Société des sciences naturelles de Strasbourg]] //[[Académie lorraine des sciences#Société des sciences de Nancy|Société des sciences de Nancy]] //  &amp;lt;big&amp;gt;'''[[Académie lorraine des sciences]]'''&amp;lt;/big&amp;gt; &lt;br /&gt;
 |default= [[Académie lorraine des sciences#Société des sciences naturelles de Strasbourg|Société des sciences naturelles de Strasbourg]] // [[Académie lorraine des sciences#Société des sciences de Nancy|Société des sciences de Nancy]] // [[Académie lorraine des sciences]]&lt;br /&gt;
}}&amp;lt;br/&amp;gt;{{#if: {{{l1|}}}|{{{l1}}}&amp;lt;br/&amp;gt;}}&amp;lt;/center&amp;gt;&lt;br /&gt;
|width=10%|{{{icône droite|[[File:Logo ALS 2010.png‎|55px|right|link=Académie lorraine des sciences]]}}}&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5282</id>
		<title>Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5282"/>
		<updated>2025-09-16T21:38:37Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Société des sciences naturelles de Strasbourg */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Infobox sémantique organisme&lt;br /&gt;
|Logo=Logo ALS.jpg&lt;br /&gt;
|Ville=Nancy}}&lt;br /&gt;
&lt;br /&gt;
L''''Académie lorraine des sciences''' ('''ALS''') est une société savante basée à [[Nancy]] en Lorraine.&lt;br /&gt;
&lt;br /&gt;
Elle définit ainsi son statut social : &lt;br /&gt;
:''La Société a pour but les progrès et la diffusion des sciences mathématiques, physiques et naturelles dans toutes leurs branches théoriques et appliquées. Elle y concourt par ses travaux et ses publications.''&amp;lt;ref&amp;gt;Voir le site de l'ALS : http://als.univ-lorraine.fr/&amp;lt;/ref&amp;gt;&lt;br /&gt;
==L'Académie lorraine des sciences et l'informatique==&lt;br /&gt;
Une des sections de l'ALS mentionne explicitement l'informatique.&lt;br /&gt;
&lt;br /&gt;
Un ensemble d'articles sont dupliqués sur ce wiki, voir la page [[Collection ALS]].&lt;br /&gt;
&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
L'Académie lorraine des sciences est issue de deux autres sociétés successives.&lt;br /&gt;
===Société des sciences naturelles de Strasbourg===&lt;br /&gt;
Elle a été créée en 1828 à [[A pour localité citée::Strasbourg]].&lt;br /&gt;
&lt;br /&gt;
Elle n'a donc pas d'activité relative à l'Informatique.&lt;br /&gt;
&lt;br /&gt;
Pour en savoir plus voir sur le wiki {{Wicri lien|wiki=Soc Grand Est|page=Société des sciences naturelles de Strasbourg}}.&lt;br /&gt;
&lt;br /&gt;
===Société des sciences de Nancy===&lt;br /&gt;
&lt;br /&gt;
Suite à la guerre de 1870, la Société des sciences naturelles de Strasbourg s'est transférée à Nancy pour devenir la Société des sciences de Nancy.&lt;br /&gt;
&lt;br /&gt;
Elle a changé de statuts en 1963 pour devenir l'Académie lorraine des sciences.&lt;br /&gt;
&lt;br /&gt;
Son activité relative à l'informatique est donc marginale.&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5281</id>
		<title>Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5281"/>
		<updated>2025-09-16T21:37:56Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Société des sciences naturelles de Strasbourg */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Infobox sémantique organisme&lt;br /&gt;
|Logo=Logo ALS.jpg&lt;br /&gt;
|Ville=Nancy}}&lt;br /&gt;
&lt;br /&gt;
L''''Académie lorraine des sciences''' ('''ALS''') est une société savante basée à [[Nancy]] en Lorraine.&lt;br /&gt;
&lt;br /&gt;
Elle définit ainsi son statut social : &lt;br /&gt;
:''La Société a pour but les progrès et la diffusion des sciences mathématiques, physiques et naturelles dans toutes leurs branches théoriques et appliquées. Elle y concourt par ses travaux et ses publications.''&amp;lt;ref&amp;gt;Voir le site de l'ALS : http://als.univ-lorraine.fr/&amp;lt;/ref&amp;gt;&lt;br /&gt;
==L'Académie lorraine des sciences et l'informatique==&lt;br /&gt;
Une des sections de l'ALS mentionne explicitement l'informatique.&lt;br /&gt;
&lt;br /&gt;
Un ensemble d'articles sont dupliqués sur ce wiki, voir la page [[Collection ALS]].&lt;br /&gt;
&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
L'Académie lorraine des sciences est issue de deux autres sociétés successives.&lt;br /&gt;
===Société des sciences naturelles de Strasbourg===&lt;br /&gt;
Elle a été créée en 1828 à [[Strasbourg]].&lt;br /&gt;
&lt;br /&gt;
Elle n'a donc pas d'activité relative à l'Informatique.&lt;br /&gt;
&lt;br /&gt;
Pour en savoir plus voir sur le wiki {{Wicri lien|wiki=Soc Grand Est|page=Société des sciences naturelles de Strasbourg}}.&lt;br /&gt;
&lt;br /&gt;
===Société des sciences de Nancy===&lt;br /&gt;
&lt;br /&gt;
Suite à la guerre de 1870, la Société des sciences naturelles de Strasbourg s'est transférée à Nancy pour devenir la Société des sciences de Nancy.&lt;br /&gt;
&lt;br /&gt;
Elle a changé de statuts en 1963 pour devenir l'Académie lorraine des sciences.&lt;br /&gt;
&lt;br /&gt;
Son activité relative à l'informatique est donc marginale.&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5280</id>
		<title>Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5280"/>
		<updated>2025-09-16T21:36:24Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Société des sciences de Nancy */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Infobox sémantique organisme&lt;br /&gt;
|Logo=Logo ALS.jpg&lt;br /&gt;
|Ville=Nancy}}&lt;br /&gt;
&lt;br /&gt;
L''''Académie lorraine des sciences''' ('''ALS''') est une société savante basée à [[Nancy]] en Lorraine.&lt;br /&gt;
&lt;br /&gt;
Elle définit ainsi son statut social : &lt;br /&gt;
:''La Société a pour but les progrès et la diffusion des sciences mathématiques, physiques et naturelles dans toutes leurs branches théoriques et appliquées. Elle y concourt par ses travaux et ses publications.''&amp;lt;ref&amp;gt;Voir le site de l'ALS : http://als.univ-lorraine.fr/&amp;lt;/ref&amp;gt;&lt;br /&gt;
==L'Académie lorraine des sciences et l'informatique==&lt;br /&gt;
Une des sections de l'ALS mentionne explicitement l'informatique.&lt;br /&gt;
&lt;br /&gt;
Un ensemble d'articles sont dupliqués sur ce wiki, voir la page [[Collection ALS]].&lt;br /&gt;
&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
L'Académie lorraine des sciences est issue de deux autres sociétés successives.&lt;br /&gt;
===Société des sciences naturelles de Strasbourg===&lt;br /&gt;
Elle a été créée en 1828 à [[Strasbourg]].&lt;br /&gt;
&lt;br /&gt;
Elle n'a donc pas d'activité relative à l'Informatique.&lt;br /&gt;
&lt;br /&gt;
===Société des sciences de Nancy===&lt;br /&gt;
&lt;br /&gt;
Suite à la guerre de 1870, la Société des sciences naturelles de Strasbourg s'est transférée à Nancy pour devenir la Société des sciences de Nancy.&lt;br /&gt;
&lt;br /&gt;
Elle a changé de statuts en 1963 pour devenir l'Académie lorraine des sciences.&lt;br /&gt;
&lt;br /&gt;
Son activité relative à l'informatique est donc marginale.&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5279</id>
		<title>Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5279"/>
		<updated>2025-09-16T21:32:59Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Repères historiques */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Infobox sémantique organisme&lt;br /&gt;
|Logo=Logo ALS.jpg&lt;br /&gt;
|Ville=Nancy}}&lt;br /&gt;
&lt;br /&gt;
L''''Académie lorraine des sciences''' ('''ALS''') est une société savante basée à [[Nancy]] en Lorraine.&lt;br /&gt;
&lt;br /&gt;
Elle définit ainsi son statut social : &lt;br /&gt;
:''La Société a pour but les progrès et la diffusion des sciences mathématiques, physiques et naturelles dans toutes leurs branches théoriques et appliquées. Elle y concourt par ses travaux et ses publications.''&amp;lt;ref&amp;gt;Voir le site de l'ALS : http://als.univ-lorraine.fr/&amp;lt;/ref&amp;gt;&lt;br /&gt;
==L'Académie lorraine des sciences et l'informatique==&lt;br /&gt;
Une des sections de l'ALS mentionne explicitement l'informatique.&lt;br /&gt;
&lt;br /&gt;
Un ensemble d'articles sont dupliqués sur ce wiki, voir la page [[Collection ALS]].&lt;br /&gt;
&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
L'Académie lorraine des sciences est issue de deux autres sociétés successives.&lt;br /&gt;
===Société des sciences naturelles de Strasbourg===&lt;br /&gt;
Elle a été créée en 1828 à [[Strasbourg]].&lt;br /&gt;
&lt;br /&gt;
Elle n'a donc pas d'activité relative à l'Informatique.&lt;br /&gt;
&lt;br /&gt;
===Société des sciences de Nancy===&lt;br /&gt;
&lt;br /&gt;
Suite à la guerre de 1870, la Société des sciences naturelles de Strasbourg s'est transférée à Nancy pour devenir la Société des sciences de Nancy.&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Mod%C3%A8le:ALS/Bulletin/En-t%C3%AAte&amp;diff=5278</id>
		<title>Modèle:ALS/Bulletin/En-tête</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Mod%C3%A8le:ALS/Bulletin/En-t%C3%AAte&amp;diff=5278"/>
		<updated>2025-09-16T21:26:43Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;div style=&amp;quot;width:{{{width|auto}}};margin-bottom:1.25em;border:1px solid #AA8833;  background:transparen;padding:0&amp;quot;&amp;gt;&lt;br /&gt;
{|width=100%&lt;br /&gt;
|-&lt;br /&gt;
|width=10%|[[Fichier:Logo ALS.jpg|55px|left|link=Académie lorraine des sciences]]&lt;br /&gt;
|width=80%|&amp;lt;center&amp;gt;&amp;lt;big&amp;gt;'''[[Académie lorraine des sciences]]'''&amp;lt;/big&amp;gt; [ [[Collection ALS|Accès aux collections]] ] &amp;lt;br/&amp;gt;&amp;lt;!--&lt;br /&gt;
--&amp;gt;  {{#switch: {{{association|default}}}&lt;br /&gt;
 |Strasbourg=&amp;lt;big&amp;gt;'''[[Académie lorraine des sciences#Société des sciences naturelles de Strasbourg|Société des sciences naturelles de Strasbourg]]'''&amp;lt;/big&amp;gt; // // [[Société des sciences de Nancy]]  // [[Académie lorraine des sciences]]&lt;br /&gt;
 |Nancy=[[Société des sciences naturelles de Strasbourg]] // &amp;lt;big&amp;gt;'''[[Société des sciences de Nancy]]'''&amp;lt;/big&amp;gt; // [[Académie lorraine des sciences]]&lt;br /&gt;
 |Lorraine=[[Académie lorraine des sciences#Société des sciences naturelles de Strasbourg|Société des sciences naturelles de Strasbourg]] //[[Société des sciences de Nancy]] //  &amp;lt;big&amp;gt;'''[[Académie lorraine des sciences]]'''&amp;lt;/big&amp;gt; &lt;br /&gt;
 |default= [[Académie lorraine des sciences#Société des sciences naturelles de Strasbourg|Société des sciences naturelles de Strasbourg]] // [[Société des sciences de Nancy]] // [[Académie lorraine des sciences]]&lt;br /&gt;
}}&amp;lt;br/&amp;gt;{{#if: {{{l1|}}}|{{{l1}}}&amp;lt;br/&amp;gt;}}&amp;lt;/center&amp;gt;&lt;br /&gt;
|width=10%|{{{icône droite|[[File:Logo ALS 2010.png‎|55px|right|link=Académie lorraine des sciences]]}}}&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&amp;lt;/div&amp;gt;&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5277</id>
		<title>Académie lorraine des sciences</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Acad%C3%A9mie_lorraine_des_sciences&amp;diff=5277"/>
		<updated>2025-09-16T21:21:45Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Infobox sémantique organisme&lt;br /&gt;
|Logo=Logo ALS.jpg&lt;br /&gt;
|Ville=Nancy}}&lt;br /&gt;
&lt;br /&gt;
L''''Académie lorraine des sciences''' ('''ALS''') est une société savante basée à [[Nancy]] en Lorraine.&lt;br /&gt;
&lt;br /&gt;
Elle définit ainsi son statut social : &lt;br /&gt;
:''La Société a pour but les progrès et la diffusion des sciences mathématiques, physiques et naturelles dans toutes leurs branches théoriques et appliquées. Elle y concourt par ses travaux et ses publications.''&amp;lt;ref&amp;gt;Voir le site de l'ALS : http://als.univ-lorraine.fr/&amp;lt;/ref&amp;gt;&lt;br /&gt;
==L'Académie lorraine des sciences et l'informatique==&lt;br /&gt;
Une des sections de l'ALS mentionne explicitement l'informatique.&lt;br /&gt;
&lt;br /&gt;
Un ensemble d'articles sont dupliqués sur ce wiki, voir la page [[Collection ALS]].&lt;br /&gt;
&lt;br /&gt;
==Repères historiques==&lt;br /&gt;
L'Académie lorraine des sciences est issue de deux autres sociétés successives.&lt;br /&gt;
===Société des sciences naturelles de Strasbourg===&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5276</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5276"/>
		<updated>2025-09-16T18:15:58Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Principe */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|20}}{{Corps article/Numéro Page droite|69}}&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement &amp;lt;math&amp;gt;2^j-1&amp;lt;/math&amp;gt; zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}] &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|6}}]&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|7}}].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite du paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|22}}{{Corps article/Numéro Page droite|71}}&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|23}}{{Corps article/Numéro Page droite|72}}&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5275</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5275"/>
		<updated>2025-09-16T18:14:04Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Apport du réseau de neurones pour une détection de contours par transformée en ondelettes */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|20}}{{Corps article/Numéro Page droite|69}}&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement &amp;lt;math&amp;gt;2^j-1&amp;lt;/math&amp;gt; zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}] &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|6}}]&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|7}}].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite du paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|22}}{{Corps article/Numéro Page droite|71}}&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5274</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5274"/>
		<updated>2025-09-16T18:12:10Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Détection de contours par analyse multi-résolution */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|20}}{{Corps article/Numéro Page droite|69}}&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement &amp;lt;math&amp;gt;2^j-1&amp;lt;/math&amp;gt; zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}] &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|6}}]&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|7}}].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite du paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5273</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5273"/>
		<updated>2025-09-16T18:06:55Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Détection de contours par analyse multi-résolution */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement &amp;lt;math&amp;gt;2^j-1&amp;lt;/math&amp;gt; zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}] &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|6}}]&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|7}}].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite du paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5272</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5272"/>
		<updated>2025-09-16T18:05:33Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Transformée en ondelettes sans sous-échantillonnage */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement &amp;lt;math&amp;gt;2^j-1&amp;lt;/math&amp;gt; zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}] &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|6}}]&amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|7}}].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5271</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5271"/>
		<updated>2025-09-16T18:02:41Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Transformée en ondelettes sans sous-échantillonnage */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes &amp;lt;math&amp;gt;C_{j,k}&amp;lt;/math&amp;gt;. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
&lt;br /&gt;
Pour pallier à ce problème, nous calculons la totalité des échantillons marqués&lt;br /&gt;
&amp;quot;o&amp;quot; et &amp;quot;x&amp;quot;, en intercalant simplement 2&amp;quot;J-1 zéros entre les coefficients des filtres h&lt;br /&gt;
et g qui permettent le passage du niveau de résolution j+1 au niveau de résolution j&lt;br /&gt;
[3][6][7].&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5270</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5270"/>
		<updated>2025-09-16T18:01:11Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot; */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===Détection de contours par analyse multi-résolution===&lt;br /&gt;
====Transformée en ondelettes sans sous-échantillonnage====&lt;br /&gt;
Dans la problématique de détection de contours, les informations exploitées&lt;br /&gt;
sont essentiellement contenues dans les hautes-fréquences, c'est-à-dire les&lt;br /&gt;
coefficients d'ondelettes C_{j,k}. Le sous-échantillonnage matérialisé par l'alternance&lt;br /&gt;
des &amp;quot;x&amp;quot; et &amp;quot;o&amp;quot; dans la figure 3, provoque la non invariance en translation de la&lt;br /&gt;
transformée en ondelettes, ce qui entraîne une réponse différente, selon la position&lt;br /&gt;
de la discontinuité (échantillon pair ou impair).&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 20|Pour le voir en mode image]]&lt;br /&gt;
}}&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5269</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5269"/>
		<updated>2025-09-16T15:03:59Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Bibliographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=2&lt;br /&gt;
 |auteur= D.J. EVANS &amp;amp; al, &lt;br /&gt;
 |texte= &amp;quot;Searching sets of properties with neural networks&amp;quot; - Parallel Computing, №.16,1990, p. 279-285.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=5&lt;br /&gt;
 |auteur= A. GROSSMANN &amp;amp; J. MORLET, &lt;br /&gt;
 |texte= &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=8&lt;br /&gt;
 |auteur= P. MATHIEU &amp;amp; al, &lt;br /&gt;
 |texte=&amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=11&lt;br /&gt;
 |auteur= M J. SMITH and D.P. BARNWELL, &lt;br /&gt;
 |texte=Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=12&lt;br /&gt;
 |auteur= P. J. WERBOS &lt;br /&gt;
 |texte=&amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5268</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5268"/>
		<updated>2025-09-16T14:59:09Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Principe */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|2}}], &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|1}}].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
[2] D.J. EVANS &amp;amp; al, - &amp;quot;Searching sets of properties with neural networks&amp;quot; -&lt;br /&gt;
Parallel Computing, №.16,1990, p. 279-285.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[5] A. GROSSMANN &amp;amp; J. MORLET, - &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
[8] P. MATHIEU &amp;amp; al, - &amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
[II] M J. SMITH and D.P. BARNWELL, Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[12] P. J. WERBOS - &amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5267</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5267"/>
		<updated>2025-09-16T14:57:01Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Principe */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, [2], [12].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient [1].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
[2] D.J. EVANS &amp;amp; al, - &amp;quot;Searching sets of properties with neural networks&amp;quot; -&lt;br /&gt;
Parallel Computing, №.16,1990, p. 279-285.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[5] A. GROSSMANN &amp;amp; J. MORLET, - &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
[8] P. MATHIEU &amp;amp; al, - &amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
[II] M J. SMITH and D.P. BARNWELL, Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[12] P. J. WERBOS - &amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5266</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5266"/>
		<updated>2025-09-16T14:55:20Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Principe */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, [2], [12].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient [1].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 7.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 8.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
[2] D.J. EVANS &amp;amp; al, - &amp;quot;Searching sets of properties with neural networks&amp;quot; -&lt;br /&gt;
Parallel Computing, №.16,1990, p. 279-285.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[5] A. GROSSMANN &amp;amp; J. MORLET, - &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
[8] P. MATHIEU &amp;amp; al, - &amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
[II] M J. SMITH and D.P. BARNWELL, Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[12] P. J. WERBOS - &amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Fichier:Bremont_ondelette_fig_8.jpg&amp;diff=5265</id>
		<title>Fichier:Bremont ondelette fig 8.jpg</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Fichier:Bremont_ondelette_fig_8.jpg&amp;diff=5265"/>
		<updated>2025-09-16T14:52:49Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Fichier:Bremont_ondelette_fig_7.jpg&amp;diff=5264</id>
		<title>Fichier:Bremont ondelette fig 7.jpg</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Fichier:Bremont_ondelette_fig_7.jpg&amp;diff=5264"/>
		<updated>2025-09-16T14:52:20Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5263</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5263"/>
		<updated>2025-09-16T14:43:37Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* L'algorithme de rétropropagation */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, [2], [12].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient [1].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Paragraphe en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 24|Pour le voir en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
[2] D.J. EVANS &amp;amp; al, - &amp;quot;Searching sets of properties with neural networks&amp;quot; -&lt;br /&gt;
Parallel Computing, №.16,1990, p. 279-285.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[5] A. GROSSMANN &amp;amp; J. MORLET, - &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
[8] P. MATHIEU &amp;amp; al, - &amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
[II] M J. SMITH and D.P. BARNWELL, Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[12] P. J. WERBOS - &amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5262</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5262"/>
		<updated>2025-09-16T14:42:09Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Mise en œuvre. */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Coopération &amp;quot;ondelettes-réseau de neurones&amp;quot;===&lt;br /&gt;
====Principe====&lt;br /&gt;
La recherche d'une loi de composition de toutes ces informations, optimale pour&lt;br /&gt;
un grand nombre d'images aux caractéristiques très différentes, est donc le point&lt;br /&gt;
crucial de cette technique. Les difficultés rencontrées dans la recherche de cette loi,&lt;br /&gt;
nous ont conduits à confier cette tâche à un réseau de neurones, [2], [12].&lt;br /&gt;
&lt;br /&gt;
Le modèle utilisé est représenté par la figure 7. Il s'agit d'un réseau à couches,&lt;br /&gt;
dont l'apprentissage est régi par la règle de rétropropagation du gradient [1].&lt;br /&gt;
&lt;br /&gt;
L'interface entre la décomposition en ondelettes et le réseau de neurones est&lt;br /&gt;
réalisée en appliquant à chaque neurone de la couche d'entrée, les niveaux des&lt;br /&gt;
pixels présents dans chacune des trois résolutions retenues, dans les deux directions&lt;br /&gt;
et suivant un voisinage 3 x 3 . Chaque neurone de la couche d'entrée reçoit donc 3&lt;br /&gt;
résolutions x 2 directions x 9 pixels, soit un vecteur de 54 composantes.&lt;br /&gt;
====L'algorithme de rétropropagation====&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
[2] D.J. EVANS &amp;amp; al, - &amp;quot;Searching sets of properties with neural networks&amp;quot; -&lt;br /&gt;
Parallel Computing, №.16,1990, p. 279-285.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[5] A. GROSSMANN &amp;amp; J. MORLET, - &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
[8] P. MATHIEU &amp;amp; al, - &amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
[II] M J. SMITH and D.P. BARNWELL, Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[12] P. J. WERBOS - &amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5261</id>
		<title>Collection ALS/1992/Forthoffer réseau de neurones</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Collection_ALS/1992/Forthoffer_r%C3%A9seau_de_neurones&amp;diff=5261"/>
		<updated>2025-09-16T14:33:03Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Expérimentations */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{ALS/Bulletin/En-tête|association=Lorraine&lt;br /&gt;
}}&lt;br /&gt;
{{Titre page article&lt;br /&gt;
 |titre=Apport du réseau de neurones pour une détection de contours par transformée en ondelettes }}&lt;br /&gt;
{{Wicri démonstration&lt;br /&gt;
 |titre=Démonstration Wicri (diversification éditoriale sur plusieurs wikis)&lt;br /&gt;
 |texte=Cette page est une réédition d'un article publié en 1992 dans le bulletin de l'Académie lorraine des sciences et déjà réédité sur le site de l'ALS pour le public de l'association. Il est ici réédité pour un public informaticien.  &lt;br /&gt;
}}&lt;br /&gt;
{{Boîte bibliographique droite|&lt;br /&gt;
:'''Titre''' : [[A pour titre::Apport du réseau de neurones pour une détection de contours par transformée en ondelettes]]&lt;br /&gt;
:'''Auteurs''' :[[A pour premier auteur::Martial Forthoffer]], [[A pour auteur::Jean-Pierre Girod]], [[A pour auteur::Jacques Brémont]]&lt;br /&gt;
:'''In''' : [[Est dans la revue::Bulletin de l'Académie lorraine des sciences]], {{Wicri lien avec icône|wiki=Soc Grand Est|page=Collection ALS/Série 7/Tome 31/N. 2|texte=Série 7, Tome 31, numéro 2}}&lt;br /&gt;
}}&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
==Résumé==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|16}}{{Corps article/Numéro Page droite|65}}&lt;br /&gt;
La méthode présentée dans cet article, constitue un nouvel outil d'extraction des&lt;br /&gt;
contours d'une image en niveaux de gris, par coopération de techniques :&lt;br /&gt;
décomposition en ondelettes et réseaux neuromimétiques.&lt;br /&gt;
&lt;br /&gt;
La première partie est consacrée aux rappels nécessaires quant au formalisme de la&lt;br /&gt;
décomposition en ondelettes, ainsi que ses principales propriétés.&lt;br /&gt;
&lt;br /&gt;
La phase délicate de l'algorithme réside dans la recomposition optimale des&lt;br /&gt;
différentes résolutions, afin d'obtenir des contours fins et sans bruit. Cette tâche est&lt;br /&gt;
avantageusement confiée à un réseau de neurones, objet de la deuxième partie.&lt;br /&gt;
&lt;br /&gt;
L'attrait majeur de cette nouvelle technique, est sa capacité à traiter correctement&lt;br /&gt;
des images aux caractéristiques très différentes, sans avoir à modifier de paramètres&lt;br /&gt;
===Abstract===&lt;br /&gt;
{{Début corps article/Petit}}''The method exposed in this paper represents a new edge-detection tool of a greylevel image by the cooperation of two technics : wavelet decomposition and neural networks.''&lt;br /&gt;
&lt;br /&gt;
''The first part recalls the necessary background on mono and bidimensional wavelet decomposition and their main properties.''&lt;br /&gt;
&lt;br /&gt;
''The difficult phase of the algorithm lies in the optimal recomposition of different resolutions, in the aim to obtain thin and noiseless edges. This work is given to a neural network which constitutes the object of the second part''&lt;br /&gt;
&lt;br /&gt;
''The main interest of this new method is to give good results with images whose caracteristics are completly different, without to modify any parameters.''&lt;br /&gt;
{{Fin corps article/Petit}}&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Apport du réseau de neurones pour une détection de contours par transformée en ondelettes==&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|18}}{{Corps article/Numéro Page droite|67}}&lt;br /&gt;
===Introduction===&lt;br /&gt;
La segmentation d'images est une étape pivot entre les phases d'amélioration-&lt;br /&gt;
restauration et celle de décision. C'est à ce niveau qu'est effectuée une détection, le&lt;br /&gt;
plus souvent non réversible, de l'information utile dans une image.&lt;br /&gt;
&lt;br /&gt;
Il existe principalement deux approches pour segmenter une image : l'approche&lt;br /&gt;
par les contours et l'approche par les régions qui lui est duale. Nous nous&lt;br /&gt;
intéressons ici à l'approche par la détection de contours &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|10}}].&lt;br /&gt;
&lt;br /&gt;
Il s'avère que, tenir compte de facteurs perturbateurs tels que le flou ou le bruit&lt;br /&gt;
apportés lors des phases d'acquisition ou de prises de vues, améliore sensiblement&lt;br /&gt;
les performances de la détection &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
La transformée en ondelettes est une analyse multi-échelle permettant une&lt;br /&gt;
meilleure interprétation du signal et donc des perturbations &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|3}}].&lt;br /&gt;
&lt;br /&gt;
La phase de détection de contours réside dans l'extraction des discontinuités de&lt;br /&gt;
l'image, depuis les différentes échelles. Une solution consiste à combiner les&lt;br /&gt;
différentes résolutions du signal image, en utilisant un réseau de neurones &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|12}}].&lt;br /&gt;
Celui-ci est chargé de déterminer une loi de combinaison optimale, face à un critère&lt;br /&gt;
d'erreur quadratique, calculé pendant la phase d'apprentissage, à l'aide d'une&lt;br /&gt;
référence déterminée par un expert.&lt;br /&gt;
&lt;br /&gt;
Cette approche originale permet d'appréhender automatiquement, par le biais de&lt;br /&gt;
l'apprentissage neuronal, le caractère multirésolution de la décomposition en&lt;br /&gt;
ondelettes.&lt;br /&gt;
&lt;br /&gt;
===La transformée en ondelettes===&lt;br /&gt;
====Définitions====&lt;br /&gt;
Les ondelettes sont des fonctions déterminées par dilatations et translations, à&lt;br /&gt;
partir d'une fonction &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt; appelée ondelette mère. Cette fonction, introduite par&lt;br /&gt;
Morlet et Grossman &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|5}}], permet l'analyse d'un signal.&lt;br /&gt;
&lt;br /&gt;
:(1) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{a,b}(t) = a^{1/2}.\Psi(\frac{t-b}{a}) &amp;lt;/math&amp;gt; &amp;amp;nbsp;  &amp;amp;nbsp; avec a&amp;gt;0,&lt;br /&gt;
&lt;br /&gt;
où a est le facteur d'échelle, b le facteur de translation et t le temps.&lt;br /&gt;
&lt;br /&gt;
Pour une analyse temps-échelle efficace, &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  doit être bien localisée en temps et&lt;br /&gt;
en fréquence. En outre, l'ondelette &amp;lt;math&amp;gt;\Psi&amp;lt;/math&amp;gt;  est assimilée à un filtre passe-haut :&lt;br /&gt;
&lt;br /&gt;
:(2) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\int \Psi(x) dx =0 &amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Parallèlement à une décomposition en série de Fourier, la transformée en&lt;br /&gt;
ondelettes permet de synthétiser un signal en tant que somme de plusieurs&lt;br /&gt;
{{Corps article/Page PDF petit|ALS 1992 31 2.pdf|19}}{{Corps article/Numéro Page droite|68}}&lt;br /&gt;
ondelettes de facteurs d'échelles variables. Y. Meyer &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|9}}], a montré que les&lt;br /&gt;
fonctions &amp;lt;math&amp;gt;\Psi_{j,k}(t)&amp;lt;/math&amp;gt; constituent une base orthogonale de &amp;lt;math&amp;gt;L^2(\R)&amp;lt;/math&amp;gt; pour &amp;lt;math&amp;gt;a=2^J&amp;lt;/math&amp;gt; et &amp;lt;math&amp;gt;b=k2^J&amp;lt;/math&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
:(3) &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;\Psi_{j,k}(t)=2^{-J/2} . \Psi(-2^jt-k)&amp;lt;/math&amp;gt; &amp;amp;nbsp; &amp;amp;nbsp; &amp;amp;nbsp; &amp;lt;math&amp;gt;(j,k)\in \Z^2&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{Wicri travaux&lt;br /&gt;
 |texte=Suite en cours de transcription TEX&lt;br /&gt;
&lt;br /&gt;
* [[/PDF#Page 19|Pour voir la suite en mode image]]&lt;br /&gt;
&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
===Mise en œuvre.===&lt;br /&gt;
Le réseau de neurones a pour fonction de déterminer si le pixel de coordonnées&lt;br /&gt;
(x,y) dans l'image d'origine, appartient au tracé d'un contour.&lt;br /&gt;
&lt;br /&gt;
A cet effet, il ne comporte qu'un seul neurone dans sa couche de sortie, et son&lt;br /&gt;
niveau d'activation doit refléter un degré d'appartenance à une frontière. Pour&lt;br /&gt;
effectuer ce traitement sur toute l'image, la structure neuronale est appliquée&lt;br /&gt;
successivement sur tous les pixels des images de la décomposition en ondelettes.&lt;br /&gt;
====Apprentissage====&lt;br /&gt;
La rétropropagation du gradient est un algorithme d'apprentissage supervisé, il&lt;br /&gt;
est donc indispensable de lui fournir une image de référence, modèle du résultat à&lt;br /&gt;
atteindre. Nous avons à cet effet constitué des leçons, à partir de la banque&lt;br /&gt;
d'images du GRECO GDR 134-GT8, sur lesquelles nous avons extrait les contours&lt;br /&gt;
à l'aide de méthodes classiques, adaptées à chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Après avoir effectué la décomposition en ondelettes d'une image brute, nous&lt;br /&gt;
présentons successivement chaque pixel de l'image des différentes résolutions à&lt;br /&gt;
l'entrée du réseau. Celui-ci génère alors une sortie, qui est comparée à la valeur du&lt;br /&gt;
pixel correspondant dans l'image de référence pour donner l'erreur locale en sortie.&lt;br /&gt;
Cette erreur est ensuite rétropropagée dans le réseau, afin de modifier chaque poids,&lt;br /&gt;
ainsi, à chaque itération, la sortie du réseau se rapproche du modèle.&lt;br /&gt;
&lt;br /&gt;
Lorsque l'erreur quadratique globale sur l'image n'évolue plus, l'apprentissage&lt;br /&gt;
est terminé.&lt;br /&gt;
&lt;br /&gt;
Le but visé étant l'obtention d'un réseau capable de traiter indifféremment et&lt;br /&gt;
sans modification de réglage, des images de caractéristiques très différentes, la&lt;br /&gt;
propriété recherchée est la capacité de généralisation.&lt;br /&gt;
&lt;br /&gt;
Pour que le réseau bénéficie de cette propriété, deux conditions principales sont&lt;br /&gt;
à respecter :&lt;br /&gt;
*il faut que les images utilisées lors de l'apprentissage aient des caractéristiques&lt;br /&gt;
variées, le lot utilisé est représenté par les figures 11 et 12.&lt;br /&gt;
*il faut limiter la connectivité du réseau, sans quoi il serait capable d'apprendre&lt;br /&gt;
&amp;quot;par coeur&amp;quot; les leçons, et incapable de traiter correctement une image inconnue.&lt;br /&gt;
====Utilisation====&lt;br /&gt;
Lors de l'utilisation, le réseau reçoit en entrée l'image des différentes résolutions&lt;br /&gt;
de la décomposition en ondelettes. Le réseau se comporte comme un classificateur&lt;br /&gt;
dont la valeur de sortie définit le tracé des contours&lt;br /&gt;
===Expérimentations===&lt;br /&gt;
Afin que le réseau dispose sur ses entrées, d'un maximum d'informations, nous&lt;br /&gt;
lui injectons une fenêtre de taille 3x3 centrée sur le pixel à classifier, pour chaque&lt;br /&gt;
résolution. Le seul prétraitement, commun à toutes les images avant la&lt;br /&gt;
décomposition en ondelette, est un simple rehaussement global.&lt;br /&gt;
&lt;br /&gt;
Dans le but d'obtenir une bonne généralisation du réseau employé, les images&lt;br /&gt;
brutes et de références sont en fait des agrégats de différentes images, choisies pour&lt;br /&gt;
leurs disparités de caractéristiques.&lt;br /&gt;
&lt;br /&gt;
La difficulté majeure rencontrée, lors de la mise en oeuvre des réseaux de&lt;br /&gt;
neurones, est le choix du nombre de couches et du nombre de neurones que&lt;br /&gt;
comporte chacune d'elles.&lt;br /&gt;
&lt;br /&gt;
Les expérimentations ont montré que si le réseau est trop complexe, il apprend&lt;br /&gt;
bien mais généralise mal, ce qui nous conduit à rechercher la structure la plus&lt;br /&gt;
simple possible, capable de donner un résultat satisfaisant.&lt;br /&gt;
&lt;br /&gt;
Le réseau finalement retenu est assez simple, puisqu'il ne comporte que trois&lt;br /&gt;
couches contenant six neurones dans celle d'entrée, quatre dans la deuxième, et un&lt;br /&gt;
seul dans celle de sortie.&lt;br /&gt;
&lt;br /&gt;
Cette relative simplicité cache cependant un grand nombre de degrés de liberté&lt;br /&gt;
représentés par le nombre de liaisons. En effet, utilisant trois résolutions&lt;br /&gt;
horizontales et trois verticales, reliées à chaque neurone de la couche d'entrée par&lt;br /&gt;
neuf poids chacune (3x3), nous sommes donc en présence de 9x6x6 = 324&lt;br /&gt;
paramètres dans la première couche, 24 dans la deuxième et 4 dans la dernière.&lt;br /&gt;
&lt;br /&gt;
A l'issue de la phase d'apprentissage, dont le rôle est de régler au mieux ces 352&lt;br /&gt;
paramètres, le réseau est capable d'extraire les contours à partir des images des&lt;br /&gt;
différentes résolutions, en éliminant une grande partie du bruit et en complétant&lt;br /&gt;
même certains contours qui n'apparaissent pas dans le modèle.&lt;br /&gt;
&lt;br /&gt;
Les figures 14 et 15 montrent les résultats obtenus sur les images des figures 11&lt;br /&gt;
et 12 appartenant aux leçons apprises.&lt;br /&gt;
&lt;br /&gt;
L'intérêt de la méthode proposée réside dans la capacité à traiter des images&lt;br /&gt;
étrangères à la banque d'apprentissage. Les résultats atteints dans ce cadre sont très&lt;br /&gt;
intéressants, comme le montre la figure 16 obtenue en appliquant, sans aucune&lt;br /&gt;
modification des paramètres, notre algorithme à* l'image de la figure 13&lt;br /&gt;
&lt;br /&gt;
===Interprétation===&lt;br /&gt;
L'interprétation des poids des neurones est délicate. En supposant que tous les&lt;br /&gt;
poids positifs ou négatifs, sont d'amplitude presque identique nous pouvons alors&lt;br /&gt;
extraire plusieurs formes typiques de &amp;quot;masques d'entrée&amp;quot;, qui sont représentées par&lt;br /&gt;
la figure 10. Ces informations sont combinées par les couches intermédiaires qui&lt;br /&gt;
permettent la détection effective des contours.&lt;br /&gt;
&lt;br /&gt;
Certaines configurations des poids en entrée du réseau ont des tâches très&lt;br /&gt;
spécifiques telles que,&lt;br /&gt;
* le calcul de la moyenne qui permet de rehausser le contour ou de le séparer du bruit,&lt;br /&gt;
* l'extraction des máxima qui accentue et affine le contour,&lt;br /&gt;
* les opérations privilégiant la géométrie des contours (traits, angles, jonctions,...).&lt;br /&gt;
&lt;br /&gt;
Dans l'exemple de la figure 9, les neurones 2 et 5 effectuent sensiblement les&lt;br /&gt;
mêmes opérations. Un pixel de poids nul a une double interprétation. Il peut&lt;br /&gt;
indiquer que l'information sur le pixel correspondant n'est sans doute pas&lt;br /&gt;
représentative du résultat recherché, ou que l'apprentissage n'est pas optimal, c'est-&lt;br /&gt;
à-dire le plus souvent inachevé. Dans ce cas, la configuration du réseau n'est pas&lt;br /&gt;
encore celle du chemin idéal recherché entre l'entrée et la sortie du réseau, et on ne&lt;br /&gt;
peut rien dire sur la pertinence de l'information. Cette dernière hypothèse est la&lt;br /&gt;
plus probable, la quantité d'informations présentes dans une image, rendant la&lt;br /&gt;
modélisation d'un tel processus impossible à réaliser de façon exacte. C'est pour&lt;br /&gt;
cette raison qu'il subsiste toujours quelques configurations de poids d'entrée de&lt;br /&gt;
réseau, qui ne correspondent à aucune structure classique&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremont ondelette fig 9.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Bremon ondelette fig 10.jpg|400px|center]]&lt;br /&gt;
&lt;br /&gt;
Les tâches effectuées par les neurones de la couche cachée et le neurone de&lt;br /&gt;
sortie sont plus délicates à analyser, mais, à ce stade des expérimentations, nous&lt;br /&gt;
pouvons supposer qu'ils prennent en compte des notions plus complexes, telles que&lt;br /&gt;
le bruit ou le flou &amp;lt;nowiki&amp;gt;[&amp;lt;/nowiki&amp;gt;{{Corps article/Lien bibl|4}}].&lt;br /&gt;
&lt;br /&gt;
====Conclusions et perspectives.====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La coopération des deux techniques permet d'allier avantageusement d'une part,&lt;br /&gt;
la représentation complète du signal sous différentes résolutions, fournie par la&lt;br /&gt;
transformation en ondelettes, et d'autre part le caractère autoréglable des réseaux&lt;br /&gt;
neuromimétiques, dans la recherche d'une loi de recomposition optimale.&lt;br /&gt;
&lt;br /&gt;
Le principal attrait de cette méthode, contrairement à celles utilisant les&lt;br /&gt;
gradients ou les laplaciens, est de fournir des contours presque binaires, bien&lt;br /&gt;
localisés, pour des transitions lentes, rapides ou bruitées, sans avoir de paramètres à&lt;br /&gt;
ajuster pour chaque situation.&lt;br /&gt;
&lt;br /&gt;
La méthode proposée n'a pas la prétention de devenir un outil universel, mais&lt;br /&gt;
elle ouvre la voie à d'autres expérimentations dans la recherche de moyens&lt;br /&gt;
polyvalents de segmentation, en intégrant une phase embryonnaire d'interprétation.&lt;br /&gt;
Hormis la phase préliminaire d'apprentissage très coûteuse en temps de calculs,&lt;br /&gt;
l'exploitation de cette méthode peut s'envisager en temps réel avec une architecture&lt;br /&gt;
pipe-line, dans la mesure où la transformée en ondelettes, comme les réseaux de&lt;br /&gt;
neurones, peuvent se décomposer en produits de convolution.&lt;br /&gt;
&lt;br /&gt;
Par ailleurs, il reste beaucoup d'expérimentations à faire dans le domaine des&lt;br /&gt;
ondelettes, comme l'utilisation de décompositions en quinconce. Leur caractère&lt;br /&gt;
isotrope et non séparable, permet de réduire le nombre de résolutions à étudier,&lt;br /&gt;
donc a priori les temps de calculs. Cependant, elle nécessite l'emploi d'opérateurs&lt;br /&gt;
d'ordre supérieur à 2 dont le comportement peut-être plus difficile à exploiter&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ALS 1992 31 2.pdf|center|page=29|600px|thumb]]&lt;br /&gt;
&lt;br /&gt;
===Bibliographie===&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=1&lt;br /&gt;
 |auteur=E. DAVALO&lt;br /&gt;
 |auteur 2=P NAIM&lt;br /&gt;
 |texte= &amp;quot;Des réseaux de neurones&amp;quot; - PARIS, EYROLLES, 1990.}}&lt;br /&gt;
&lt;br /&gt;
[2] D.J. EVANS &amp;amp; al, - &amp;quot;Searching sets of properties with neural networks&amp;quot; -&lt;br /&gt;
Parallel Computing, №.16,1990, p. 279-285.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=3&lt;br /&gt;
 |auteur=Jean-Christophe Fauveau{{!}}J.-C.FAUVEAU&lt;br /&gt;
 |texte= &amp;quot;Analyse multi-résolution par ondelettes non orthogonales&lt;br /&gt;
et bancs de filtres numériques&amp;quot; - Thèse de Doctorat, spécialité informatique,&lt;br /&gt;
Université de Paris Sud, 1990.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=4&lt;br /&gt;
 |auteur=Martial Forthoffer{{!}}M. FORTHOFFER&lt;br /&gt;
 |texte=&amp;quot;Détection de contours par transformée en ondelettes&lt;br /&gt;
et réseaux de neurones&amp;quot; - Thèse de Doctorat, spécialité automatique,&lt;br /&gt;
Université de Nancy 1,1991.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[5] A. GROSSMANN &amp;amp; J. MORLET, - &amp;quot;Decomposition of Hardy functions&lt;br /&gt;
into square integrable wavelets of constant shape&amp;quot; - SIAM J. Math., vol 15,&lt;br /&gt;
1984, p. 723-736.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=6&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;A Theory for Multiresolution Signal Decomposition : The&lt;br /&gt;
Wavelet Representation&amp;quot; - IEEE Trans, on Pattern Analysis and Machine&lt;br /&gt;
Intelligence, n°7, July 1989, vol. 11.}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=7&lt;br /&gt;
 |auteur=Stéphane Mallat{{!}}S.G. MALLAT&lt;br /&gt;
 |texte=  &amp;quot;Multiresolution representations and wavelets&amp;quot; - Thèse,&lt;br /&gt;
GRASP Lab, Dept. of computer and information science, Univ of&lt;br /&gt;
Pennsylvania, 1988.}}&lt;br /&gt;
&lt;br /&gt;
[8] P. MATHIEU &amp;amp; al, - &amp;quot;Compression d'images par transformée en ondelette et&lt;br /&gt;
quantification vectorielle&amp;quot; - Traitement du Signal, Vol 7, n°2,1990.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=9&lt;br /&gt;
 |auteur=Yves Meyer{{!}}Y. MEYER,&lt;br /&gt;
 |texte = &amp;quot;Principe d'incertitude, bases hilbertiennnes et algèbre&lt;br /&gt;
d'opérateurs&amp;quot; - Séminaire Bourbaki n°662,1985-86.&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Bibl&lt;br /&gt;
 |id=10&lt;br /&gt;
 |auteur=Olivier Monga{{!}}O. MONGA,&lt;br /&gt;
 |texte= &amp;quot;segmentation d'images : où en sommes nous ?&amp;quot; - rapport de&lt;br /&gt;
recherche INRIA-Rocquencourt, №1216, support de cours pour le congrès&lt;br /&gt;
PIXIM 89,1990.}}&lt;br /&gt;
&lt;br /&gt;
[II] M J. SMITH and D.P. BARNWELL, Exact reconstruction for tree-structured&lt;br /&gt;
subband coders. IEEE Trans, on ASSP 34,1986, p.434-441.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[12] P. J. WERBOS - &amp;quot;Backpropagation through time: what it does and how to do&lt;br /&gt;
it&amp;quot; - Proceedings of the IEEE, № 10, October 1990, vol. 78.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
* [[/PDF|L'article en mode image]]&lt;br /&gt;
{{Wicri voir|référence=Soc Grand Est}}&lt;br /&gt;
[[Catégorie:ondelette]]&lt;br /&gt;
[[Catégorie:segmentation d'images]]&lt;br /&gt;
[[Catégorie:détection de contours]]&lt;br /&gt;
[[Catégorie:réseau de neurones]]&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5260</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5260"/>
		<updated>2025-09-16T14:20:12Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Biographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=Conservatoire national des arts et métiers&lt;br /&gt;
}}&lt;br /&gt;
'''Yves Meyer''', né le {{date|19|juillet|1939}} à [[Paris]], est un [[mathématicien]] [[France|français]], lauréat du [[prix Abel]] 2017 « pour son rôle majeur dans le développement de la théorie mathématique des [[ondelette]]s »&amp;lt;ref&amp;gt;[http://www.academie-sciences.fr/pdf/communique/abel2017.pdf Prix Abel 2017.]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa thèse d'État, à l'[[Ancien élève de::université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est directeur de recherche au CNRS (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Universit%C3%A9_de_Strasbourg&amp;diff=5259</id>
		<title>Université de Strasbourg</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Universit%C3%A9_de_Strasbourg&amp;diff=5259"/>
		<updated>2025-09-16T14:18:28Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;small&amp;gt;{{Accès géographique}} &amp;gt; [[Europe]] &amp;gt; [[France]] &amp;gt; [[A pour région::Grand Est]], ''[[A pour région::Alsace (région administrative)|Alsace]]'' &amp;gt; [[Strasbourg]] &amp;gt; [[Université de Strasbourg]]&amp;lt;hr/&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
{{Infobox sémantique université|}}{{Wicri avertissement création lien}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, université}}&lt;br /&gt;
{{Wicri voir|référence=Alsace}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5258</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5258"/>
		<updated>2025-09-16T14:17:44Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Biographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=Conservatoire national des arts et métiers&lt;br /&gt;
}}&lt;br /&gt;
'''Yves Meyer''', né le {{date|19|juillet|1939}} à [[Paris]], est un [[mathématicien]] [[France|français]], lauréat du [[prix Abel]] 2017 « pour son rôle majeur dans le développement de la théorie mathématique des [[ondelette]]s »&amp;lt;ref&amp;gt;[http://www.academie-sciences.fr/pdf/communique/abel2017.pdf Prix Abel 2017.]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[Ancien élève de::université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Universit%C3%A9_de_Strasbourg&amp;diff=5257</id>
		<title>Université de Strasbourg</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Universit%C3%A9_de_Strasbourg&amp;diff=5257"/>
		<updated>2025-09-16T14:16:33Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : Page créée avec « &amp;lt;small&amp;gt;{{Accès géographique}} &amp;gt; Europe &amp;gt; France &amp;gt; A pour région::Grand Est, ''Alsace'' &amp;gt; Strasbourg... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;lt;small&amp;gt;{{Accès géographique}} &amp;gt; [[Europe]] &amp;gt; [[France]] &amp;gt; [[A pour région::Grand Est]], ''[[A pour région::Alsace (région administrative)|Alsace]]'' &amp;gt; [[Strasbourg]] &amp;gt; [[Université de Strasbourg]]&amp;lt;hr/&amp;gt;&amp;lt;/small&amp;gt;&lt;br /&gt;
{{Infobox sémantique université|}}{{Wicri avertissement création lien}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir|référence=Alsace}}&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5256</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5256"/>
		<updated>2025-09-16T14:11:35Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
 |Photo=Stéphane Mallat - 2019 (cropped).jpg&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
&lt;br /&gt;
Il reçoit le Grand Prix ''Sciences de l'information'' de la [[Fondation d'entreprise Airbus Group|Fondation d'entreprise EADS]] en [[2007]] remis en collaboration avec l'[[Académie des sciences (France)|académie des sciences]]&amp;lt;ref&amp;gt;[http://www.fondation.eads.com/content/fr/Recherche-fondamentale/Prix/Prix-de-la-Fondation/Archives/Laureats-2007/ Portrait et zoom sur les travaux de recherche de Stéphane Mallat sur le site de la Fondation EADS].&amp;lt;/ref&amp;gt;. En 2025, sa carrière est couronnée par la [[médaille d'or du CNRS]]&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;&amp;gt;{{Lien web |langue=fr |titre=Entre mathématiques et informatique, Stéphane Mallat médaillé d'or 2025 du CNRS |url=https://www.cnrs.fr/fr/presse/entre-mathematiques-et-informatique-stephane-mallat-medaille-dor-2025-du-cnrs |site=cnrs.fr |date=2025-09-11 |consulté le=2025-09-11}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
=== Formation ===&lt;br /&gt;
Il est élève à l'[[École polytechnique (France)|école Polytechnique]] et en sort diplomé en 1984&amp;lt;ref&amp;gt;Stéphane Mallat. (2025, septembre 15). Wikipédia, l'encyclopédie libre. Page consultée le 20:32, septembre 15, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=St%C3%A9phane_Mallat&amp;amp;oldid=228999871.&lt;br /&gt;
&amp;lt;/ref&amp;gt;. Après avoir obtenu son doctorat en 1988 à l’[[université de Pennsylvanie]], il contribue à l'essor de la « théorie des [[ondelettes]] » fondée par [[A pour personnalité citée::Yves Meyer]], théorie qui révolutionne l’[[analyse harmonique]] et le [[traitement du signal]].&lt;br /&gt;
&lt;br /&gt;
=== Carrière ===&lt;br /&gt;
Il a été successivement professeur au [[Courant Institute of Mathematical Sciences]] à New York de 1995 à 1998, à l’[[École polytechnique (France)|École polytechnique]] ([[Centre de mathématiques appliquées]]) de 1998 à 2012&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt; puis à l’[[École normale supérieure (France)|ENS]] (département d'informatique)&amp;lt;ref&amp;gt;[http://www.di.ens.fr/~mallat/ Page personnelle] à l'École normale supérieure.&amp;lt;/ref&amp;gt; à Paris.&lt;br /&gt;
&lt;br /&gt;
En parallèle, il fonde la [[start-up]] ''Let It Wave'' en 2001 qu’il préside jusqu’à son rachat en 2008 par Zoran Coporation.&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5255</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5255"/>
		<updated>2025-09-16T14:08:36Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
&lt;br /&gt;
Il reçoit le Grand Prix ''Sciences de l'information'' de la [[Fondation d'entreprise Airbus Group|Fondation d'entreprise EADS]] en [[2007]] remis en collaboration avec l'[[Académie des sciences (France)|académie des sciences]]&amp;lt;ref&amp;gt;[http://www.fondation.eads.com/content/fr/Recherche-fondamentale/Prix/Prix-de-la-Fondation/Archives/Laureats-2007/ Portrait et zoom sur les travaux de recherche de Stéphane Mallat sur le site de la Fondation EADS].&amp;lt;/ref&amp;gt;. En 2025, sa carrière est couronnée par la [[médaille d'or du CNRS]]&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;&amp;gt;{{Lien web |langue=fr |titre=Entre mathématiques et informatique, Stéphane Mallat médaillé d'or 2025 du CNRS |url=https://www.cnrs.fr/fr/presse/entre-mathematiques-et-informatique-stephane-mallat-medaille-dor-2025-du-cnrs |site=cnrs.fr |date=2025-09-11 |consulté le=2025-09-11}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
=== Formation ===&lt;br /&gt;
Il est élève à l'[[École polytechnique (France)|école Polytechnique]] et en sort diplomé en 1984&amp;lt;ref&amp;gt;Stéphane Mallat. (2025, septembre 15). Wikipédia, l'encyclopédie libre. Page consultée le 20:32, septembre 15, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=St%C3%A9phane_Mallat&amp;amp;oldid=228999871.&lt;br /&gt;
&amp;lt;/ref&amp;gt;. Après avoir obtenu son doctorat en 1988 à l’[[université de Pennsylvanie]], il contribue à l'essor de la « théorie des [[ondelettes]] » fondée par [[A pour personnalité citée::Yves Meyer]], théorie qui révolutionne l’[[analyse harmonique]] et le [[traitement du signal]].&lt;br /&gt;
&lt;br /&gt;
=== Carrière ===&lt;br /&gt;
Il a été successivement professeur au [[Courant Institute of Mathematical Sciences]] à New York de 1995 à 1998, à l’[[École polytechnique (France)|École polytechnique]] ([[Centre de mathématiques appliquées]]) de 1998 à 2012&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt; puis à l’[[École normale supérieure (France)|ENS]] (département d'informatique)&amp;lt;ref&amp;gt;[http://www.di.ens.fr/~mallat/ Page personnelle] à l'École normale supérieure.&amp;lt;/ref&amp;gt; à Paris.&lt;br /&gt;
&lt;br /&gt;
En parallèle, il fonde la [[start-up]] ''Let It Wave'' en 2001 qu’il préside jusqu’à son rachat en 2008 par Zoran Coporation.&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5254</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5254"/>
		<updated>2025-09-16T14:07:39Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Voir aussi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
=== Formation ===&lt;br /&gt;
Il est élève à l'[[École polytechnique (France)|école Polytechnique]] et en sort diplomé en 1984&amp;lt;ref&amp;gt;Stéphane Mallat. (2025, septembre 15). Wikipédia, l'encyclopédie libre. Page consultée le 20:32, septembre 15, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=St%C3%A9phane_Mallat&amp;amp;oldid=228999871.&lt;br /&gt;
&amp;lt;/ref&amp;gt;. Après avoir obtenu son doctorat en 1988 à l’[[université de Pennsylvanie]], il contribue à l'essor de la « théorie des [[ondelettes]] » fondée par [[A pour personnalité citée::Yves Meyer]], théorie qui révolutionne l’[[analyse harmonique]] et le [[traitement du signal]].&lt;br /&gt;
&lt;br /&gt;
=== Carrière ===&lt;br /&gt;
Il a été successivement professeur au [[Courant Institute of Mathematical Sciences]] à New York de 1995 à 1998, à l’[[École polytechnique (France)|École polytechnique]] ([[Centre de mathématiques appliquées]]) de 1998 à 2012&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt; puis à l’[[École normale supérieure (France)|ENS]] (département d'informatique)&amp;lt;ref&amp;gt;[http://www.di.ens.fr/~mallat/ Page personnelle] à l'École normale supérieure.&amp;lt;/ref&amp;gt; à Paris.&lt;br /&gt;
&lt;br /&gt;
En parallèle, il fonde la [[start-up]] ''Let It Wave'' en 2001 qu’il préside jusqu’à son rachat en 2008 par Zoran Coporation.&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5253</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5253"/>
		<updated>2025-09-16T14:06:01Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
=== Formation ===&lt;br /&gt;
Il est élève à l'[[École polytechnique (France)|école Polytechnique]] et en sort diplomé en 1984&amp;lt;ref&amp;gt;Stéphane Mallat. (2025, septembre 15). Wikipédia, l'encyclopédie libre. Page consultée le 20:32, septembre 15, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=St%C3%A9phane_Mallat&amp;amp;oldid=228999871.&lt;br /&gt;
&amp;lt;/ref&amp;gt;. Après avoir obtenu son doctorat en 1988 à l’[[université de Pennsylvanie]], il contribue à l'essor de la « théorie des [[ondelettes]] » fondée par [[A pour personnalité citée::Yves Meyer]], théorie qui révolutionne l’[[analyse harmonique]] et le [[traitement du signal]].&lt;br /&gt;
&lt;br /&gt;
=== Carrière ===&lt;br /&gt;
Il a été successivement professeur au [[Courant Institute of Mathematical Sciences]] à New York de 1995 à 1998, à l’[[École polytechnique (France)|École polytechnique]] ([[Centre de mathématiques appliquées]]) de 1998 à 2012&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt; puis à l’[[École normale supérieure (France)|ENS]] (département d'informatique)&amp;lt;ref&amp;gt;[http://www.di.ens.fr/~mallat/ Page personnelle] à l'École normale supérieure.&amp;lt;/ref&amp;gt; à Paris.&lt;br /&gt;
&lt;br /&gt;
En parallèle, il fonde la [[start-up]] ''Let It Wave'' en 2001 qu’il préside jusqu’à son rachat en 2008 par Zoran Coporation.&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5252</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5252"/>
		<updated>2025-09-16T14:04:19Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Biographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
=== Formation ===&lt;br /&gt;
Il est élève à l'[[École polytechnique (France)|école Polytechnique]] et en sort diplomé en 1984&amp;lt;ref&amp;gt;Stéphane Mallat. (2025, septembre 15). Wikipédia, l'encyclopédie libre. Page consultée le 20:32, septembre 15, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=St%C3%A9phane_Mallat&amp;amp;oldid=228999871.&lt;br /&gt;
&amp;lt;/ref&amp;gt;. Après avoir obtenu son doctorat en 1988 à l’[[université de Pennsylvanie]]&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt;, il contribue à l'essor de la « théorie des [[ondelettes]] » fondée par [[Yves Meyer]], théorie qui révolutionne l’[[analyse harmonique]] et le [[traitement du signal]].&lt;br /&gt;
&lt;br /&gt;
=== Carrière ===&lt;br /&gt;
Il a été successivement professeur au [[Courant Institute of Mathematical Sciences]] à New York de 1995 à 1998, à l’[[École polytechnique (France)|École polytechnique]] ([[Centre de mathématiques appliquées]]) de 1998 à 2012&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt; puis à l’[[École normale supérieure (France)|ENS]] (département d'informatique)&amp;lt;ref&amp;gt;[http://www.di.ens.fr/~mallat/ Page personnelle] à l'École normale supérieure.&amp;lt;/ref&amp;gt; à Paris.&lt;br /&gt;
&lt;br /&gt;
En parallèle, il fonde la [[start-up]] ''Let It Wave'' en 2001 qu’il préside jusqu’à son rachat en 2008 par Zoran Coporation.&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5251</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5251"/>
		<updated>2025-09-16T14:02:09Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
=== Formation ===&lt;br /&gt;
Il est élève à l'[[École polytechnique (France)|école Polytechnique]] et en sort diplomé en 1984&amp;lt;ref&amp;gt;{{Lien web |langue=fr |titre=Annuaire des anciens élèves de l'école Polytechnique |url=https://ax.polytechnique.org/fr/ |consulté le=12 septembre 2025}}.1981 promotion d'entrée.&amp;lt;/ref&amp;gt;. Après avoir obtenu son doctorat en 1988 à l’[[université de Pennsylvanie]]&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt;, il contribue à l'essor de la « théorie des [[ondelettes]] » fondée par [[Yves Meyer]], théorie qui révolutionne l’[[analyse harmonique]] et le [[traitement du signal]].&lt;br /&gt;
&lt;br /&gt;
=== Carrière ===&lt;br /&gt;
Il a été successivement professeur au [[Courant Institute of Mathematical Sciences]] à New York de 1995 à 1998, à l’[[École polytechnique (France)|École polytechnique]] ([[Centre de mathématiques appliquées]]) de 1998 à 2012&amp;lt;ref name=&amp;quot;medaille_CNRS&amp;quot;/&amp;gt; puis à l’[[École normale supérieure (France)|ENS]] (département d'informatique)&amp;lt;ref&amp;gt;[http://www.di.ens.fr/~mallat/ Page personnelle] à l'École normale supérieure.&amp;lt;/ref&amp;gt; à Paris.&lt;br /&gt;
&lt;br /&gt;
En parallèle, il fonde la [[start-up]] ''Let It Wave'' en 2001 qu’il préside jusqu’à son rachat en 2008 par Zoran Coporation.&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5250</id>
		<title>Stéphane Mallat</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=St%C3%A9phane_Mallat&amp;diff=5250"/>
		<updated>2025-09-16T13:59:14Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=École normale supérieure (Paris)&lt;br /&gt;
}}&lt;br /&gt;
'''Stéphane G. Mallat''', né à [[Suresnes]] le {{date de naissance|24 octobre 1962}}&amp;lt;ref&amp;gt;{{Lien web |auteur= |titre=Biographie - Stéphane Mallat - Sciences des données - Collège de France |jour=12 |mois=décembre |année=2017 |url=https://www.college-de-france.fr/site/stephane-mallat/Biographie.htm |site= |consulté le=7 septembre 2018&lt;br /&gt;
}}.&amp;lt;/ref&amp;gt;, est un chercheur en [[mathématiques appliquées]] spécialiste du [[traitement du signal]]. &lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Mallat, Stéphane}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5249</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5249"/>
		<updated>2025-09-16T13:56:23Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Biographie */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=Conservatoire national des arts et métiers&lt;br /&gt;
}}&lt;br /&gt;
'''Yves Meyer''', né le {{date|19|juillet|1939}} à [[Paris]], est un [[mathématicien]] [[France|français]], lauréat du [[prix Abel]] 2017 « pour son rôle majeur dans le développement de la théorie mathématique des [[ondelette]]s »&amp;lt;ref&amp;gt;[http://www.academie-sciences.fr/pdf/communique/abel2017.pdf Prix Abel 2017.]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia&amp;lt;ref&amp;gt;Yves Meyer. (2025, septembre 2). Wikipédia, l'encyclopédie libre. Page consultée le 00:34, septembre 2, 2025 à partir de http://fr.wikipedia.org/w/index.php?title=Yves_Meyer&amp;amp;oldid=228627384.&amp;lt;/ref&amp;gt;''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5248</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5248"/>
		<updated>2025-09-16T13:55:13Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=Conservatoire national des arts et métiers&lt;br /&gt;
}}&lt;br /&gt;
'''Yves Meyer''', né le {{date|19|juillet|1939}} à [[Paris]], est un [[mathématicien]] [[France|français]], lauréat du [[prix Abel]] 2017 « pour son rôle majeur dans le développement de la théorie mathématique des [[ondelette]]s »&amp;lt;ref&amp;gt;[http://www.academie-sciences.fr/pdf/communique/abel2017.pdf Prix Abel 2017.]&amp;lt;/ref&amp;gt;.&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5247</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5247"/>
		<updated>2025-09-16T13:53:21Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=Conservatoire national des arts et métiers&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5246</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5246"/>
		<updated>2025-09-16T13:51:23Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5245</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5245"/>
		<updated>2025-09-16T13:50:03Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : /* Voir aussi */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
;Notes:&lt;br /&gt;
&amp;lt;references/&amp;gt;&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5244</id>
		<title>Yves Meyer</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Informatique/fr/index.php?title=Yves_Meyer&amp;diff=5244"/>
		<updated>2025-09-16T13:48:34Z</updated>

		<summary type="html">&lt;p&gt;Jacques Ducloy : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Infobox sémantique personne&lt;br /&gt;
 |Ecole=&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
[[Ancien élève de::École normale supérieure (Paris)|École normale supérieure]]&lt;br /&gt;
==Biographie==&lt;br /&gt;
''Extraite de Wikipédia''&lt;br /&gt;
{{Corps article/Début}}&lt;br /&gt;
Né à Paris en 1939, Yves Meyer quitte la métropole à l'âge de cinq ans&amp;lt;ref&amp;gt;{{en}} Yves Meyer, « Quasicrystals and Control Theory », dans {{ouvrage|titre=Analysis and Geometry|nature ouvrage=actes de la conférence organisée par le Mediterranean Institute for the Mathematical Sciences (MIMS)-Geometry and Topology Grouping for the Maghreb (GGTM), Tunis, mars 2014|numéro dans collection=127|collection=Springer Proceedings in Mathematics &amp;amp; Statistics|auteur1=Ali Baklouti|directeur1=oui|auteur2=Aziz El Kacimi|directeur2=oui|auteur3=Sadok Kallel|directeur3=oui|auteur4=Nordine Mir|directeur4=oui|éditeur=Springer|année=2015|isbn=978-3-319-17442-6|passage=219|doi=10.1007/978-3-319-17443-3_12}}.&amp;lt;/ref&amp;gt;, en 1944, lorsque sa famille part au [[Maroc]], puis en Tunisie, où il passe le reste de son enfance. Élève du [[lycée Carnot de Tunis]] il obtient le premier prix au [[concours général]] de mathématiques&amp;lt;ref&amp;gt;{{lien web|description=lettre d'information {{n°}}3|url=http://smf.emath.fr/files/text_like_files/icm-l3_0.pdf|titre=Un événement quadriennal : Le congrès international des mathématiciens|date=août 2010|éditeur=[[Société mathématique de France]]|passage=11}}.&amp;lt;/ref&amp;gt;. En 1957, à 18 ans, il est reçu premier à l'[[École normale supérieure (Paris)|École normale supérieure]]&amp;lt;ref&amp;gt;[http://smai.emath.fr/IMG/pdf_Meyer_photo.pdf Biographie.]&amp;lt;/ref&amp;gt;. Il soutient en 1966 sa [[Doctorat (France)|thèse d'État]], à l'[[université de Strasbourg]], sous la direction de [[Jean-Pierre Kahane]]. Agrégé de mathématiques&amp;lt;ref&amp;gt;{{lien web|url=http://carnottunis.com/?p=1895|titre=Yves Meyer, un ancien de Carnot à l'honneur !|éditeur=Association des anciens et amis du lycée Carnot de Tunis|date=7 octobre 2010}}.&amp;lt;/ref&amp;gt;, il enseigne au [[Prytanée national militaire]] de [[La Flèche]] (1960-1963).&lt;br /&gt;
&lt;br /&gt;
Yves Meyer enseigne à l'[[université de Strasbourg]] (1963-1966), à l'[[université Paris-Sud]] (1966-1980), au [[Centre de mathématiques Laurent-Schwartz|Centre de mathématiques]] de l'[[École polytechnique (France)|École polytechnique]] (1980-1986), au [[CEREMADE]] ([[Université Paris-Dauphine]]) (1985-1995), à l'[[École normale supérieure Paris-Saclay|École normale supérieure de Cachan]] (1999-2003), au [[Conservatoire national des arts et métiers]] (2000). Il est [[directeur de recherche au CNRS]] (1995-1999), et est [[Éméritat|professeur émérite]] à l'École normale supérieure de Cachan depuis 2003.&lt;br /&gt;
&lt;br /&gt;
Il est élu correspondant de l'[[Académie des sciences (France)|Académie des sciences]] le 24 novembre 1986, puis membre le 15 novembre 1993&amp;lt;ref&amp;gt;{{lien web|url=http://www.academie-sciences.fr/fr/Liste-des-membres-de-l-Academie-des-sciences-/-M/yves-meyer.html|titre=Yves Meyer|éditeur=Académie des sciences}}.&amp;lt;/ref&amp;gt; (Section des Sciences mécaniques et informatiques). Il a été nommé membre senior de l'[[Institut universitaire de France]] en 1991 pour une durée de cinq ans&amp;lt;ref&amp;gt;[http://legifrance.gouv.fr/affichTexte.do?cidTexte=JORFTEXT000000538896 Arrêté du 2 décembre 1991 portant nomination à l'Institut universitaire de France], [[Journal officiel de la République française|JORF]] {{numéro}}286 du 8 décembre 1991, {{p.}}16074, [[Système NOR|NOR]] MENH9102797A, sur [[Légifrance]].&amp;lt;/ref&amp;gt; ; il en est désormais membre honoraire&amp;lt;ref&amp;gt;{{lien web|url=http://www.iufrance.fr/les-membres-de-liuf/membre/1448-yves-meyer.html|titre=Yves Meyer|éditeur=[[Institut universitaire de France]]}}.&amp;lt;/ref&amp;gt;.&lt;br /&gt;
&lt;br /&gt;
{{Corps article/Fin}}&lt;br /&gt;
==Voir aussi==&lt;br /&gt;
{{Wicri voir aussi, personne&lt;br /&gt;
}}&lt;br /&gt;
;Liens externes:&lt;br /&gt;
* [[wikipedia:{{PAGENAME}}|Wikipedia]]&lt;br /&gt;
{{DEFAULTSORT:Meyer, Pierre}}&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Jacques Ducloy</name></author>
		
	</entry>
</feed>