<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=TP+Charlemagne+GR3+b</id>
	<title>Wicri Incubateur - Contributions de l’utilisateur [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=TP+Charlemagne+GR3+b"/>
	<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php/Sp%C3%A9cial:Contributions/TP_Charlemagne_GR3_b"/>
	<updated>2026-05-14T05:21:53Z</updated>
	<subtitle>Contributions de l’utilisateur</subtitle>
	<generator>MediaWiki 1.31.10</generator>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20515</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20515"/>
		<updated>2025-04-28T06:47:17Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20510</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20510"/>
		<updated>2025-04-28T06:45:57Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20509</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20509"/>
		<updated>2025-04-28T06:45:49Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20508</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20508"/>
		<updated>2025-04-28T06:45:38Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20506</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20506"/>
		<updated>2025-04-28T06:45:24Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|150px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20504</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20504"/>
		<updated>2025-04-28T06:44:58Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|200px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20502</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20502"/>
		<updated>2025-04-28T06:44:45Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|200px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20501</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20501"/>
		<updated>2025-04-28T06:44:34Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|200px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20498</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20498"/>
		<updated>2025-04-28T06:44:15Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|200px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20494</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20494"/>
		<updated>2025-04-28T06:43:52Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20491</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20491"/>
		<updated>2025-04-28T06:43:35Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20488</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20488"/>
		<updated>2025-04-28T06:43:11Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20485</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20485"/>
		<updated>2025-04-28T06:42:59Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|left|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20476</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20476"/>
		<updated>2025-04-28T06:41:26Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20474</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20474"/>
		<updated>2025-04-28T06:40:56Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Histoire et contexte scientifique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20472</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20472"/>
		<updated>2025-04-28T06:40:46Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|100px|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20467</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20467"/>
		<updated>2025-04-28T06:39:41Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|150px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20465</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20465"/>
		<updated>2025-04-28T06:39:27Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|100px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20464</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20464"/>
		<updated>2025-04-28T06:39:11Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Introduction et définition */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|50px|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20462</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20462"/>
		<updated>2025-04-28T06:38:48Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|vignette|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20461</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20461"/>
		<updated>2025-04-28T06:38:19Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|200px|right|Ray Solomonoff]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20456</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20456"/>
		<updated>2025-04-28T06:37:48Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Histoire et contexte scientifique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|200px|right|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20450</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20450"/>
		<updated>2025-04-28T06:36:40Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Images?q=tbn-ANd9GcRKCaLD2IjWTBMQYnL4TkotjwB3m5mMBzrwrA&amp;amp;s.jpeg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20436</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20436"/>
		<updated>2025-04-28T06:33:13Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20434</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20434"/>
		<updated>2025-04-28T06:33:03Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20431</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20431"/>
		<updated>2025-04-28T06:32:47Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Introduction et définition */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20428</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20428"/>
		<updated>2025-04-28T06:32:26Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Introduction et définition */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Machine de Turing universelle]]&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20422</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20422"/>
		<updated>2025-04-28T06:31:35Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Introduction et définition */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Machine_de_turing_universelle.svg|vignette|Texte de la légende]]&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20405</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20405"/>
		<updated>2025-04-28T06:28:12Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20402</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20402"/>
		<updated>2025-04-28T06:27:42Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* Probabilité algorithmique */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
[[Fichier:ray_solomonoff.jpg|300px|thumb|left|Ray Solomonoff, pionnier de la probabilité algorithmique. ©vsp.fr]]&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20388</id>
		<title>Probabilité algorithmique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Probabilit%C3%A9_algorithmique&amp;diff=20388"/>
		<updated>2025-04-28T06:21:31Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : Page créée avec « = Probabilité algorithmique =  == Introduction et définition ==  La '''probabilité algorithmique''' est un concept fondamental en Théorie de l'information et en ... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=L%27apprentissage_automatique&amp;diff=20386</id>
		<title>L'apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=L%27apprentissage_automatique&amp;diff=20386"/>
		<updated>2025-04-28T06:21:16Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : Page blanchie&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=L%27apprentissage_automatique&amp;diff=20384</id>
		<title>L'apprentissage automatique</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=L%27apprentissage_automatique&amp;diff=20384"/>
		<updated>2025-04-28T06:20:36Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : Page créée avec « = Probabilité algorithmique =  == Introduction et définition ==  La '''probabilité algorithmique''' est un concept fondamental en Théorie de l'information et en ... »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Probabilité algorithmique =&lt;br /&gt;
&lt;br /&gt;
== Introduction et définition ==&lt;br /&gt;
&lt;br /&gt;
La '''probabilité algorithmique''' est un concept fondamental en [[Théorie de l'information]] et en [[Complexité algorithmique]]. Elle permet d’évaluer la simplicité d’une suite de symboles en mesurant la probabilité qu’une [[Machine de Turing universelle]] la génère à partir d’un programme choisi aléatoirement. L’idée principale repose sur le fait que les programmes les plus courts sont plus susceptibles de produire une sortie donnée que les programmes plus longs. Cela rejoint le [[Principe de parcimonie]] (ou ''rasoir d’Ockham''), qui favorise les explications les plus simples. Ce concept a des applications en [[Statistique]], en [[Apprentissage automatique]] et en modélisation des [[Systèmes complexes]].&lt;br /&gt;
&lt;br /&gt;
== Histoire et contexte scientifique ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique a été développée dans les années 1960 par [[Ray Solomonoff]], qui cherchait à établir une base mathématique pour l’[[Induction statistique]], c’est-à-dire la capacité à faire des prédictions à partir de données. Ses travaux ont été complétés par [[Andreï Kolmogorov]], qui a introduit la [[Complexité descriptive]], permettant de mesurer la longueur du plus court programme générant une donnée. [[Gregory Chaitin]] a approfondi cette théorie en étudiant les données incompressibles, c’est-à-dire celles ne pouvant être représentées par un programme plus court qu’elles-mêmes. Parallèlement, [[Leonid Levin]] a exploré les liens entre la complexité algorithmique et d’autres problèmes fondamentaux de l’informatique, influençant des domaines comme la [[Statistique bayésienne]] et la [[Philosophie de la connaissance]].&lt;br /&gt;
&lt;br /&gt;
== Définition formelle et formules ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique d’une chaîne ''x'' se définit comme la somme des probabilités de tous les programmes ''p'' qui, lorsqu’ils sont exécutés sur une [[Machine de Turing universelle|machine de Turing universelle]] ''U'', produisent ''x''. Cette relation est exprimée par la formule suivante :&lt;br /&gt;
&lt;br /&gt;
: m(x) = ∑_{U(p)=x} 2^{-∣p∣}&lt;br /&gt;
&lt;br /&gt;
où ∣p∣ représente la longueur du programme ''p'' en bits. Plus un programme est long, moins il a de chances d’être choisi aléatoirement, car chaque bit supplémentaire divise par deux sa probabilité. Cette somme ne donne pas toujours un total de 1, contrairement à une vraie probabilité, ce qui fait de ''m(x)'' une semi-mesure. Un résultat important de cette théorie est que la probabilité algorithmique est relativement indépendante du choix de la machine de Turing universelle utilisée, à une constante additive près.&lt;br /&gt;
&lt;br /&gt;
== Applications et liens avec d’autres domaines ==&lt;br /&gt;
&lt;br /&gt;
La probabilité algorithmique est un outil fondamental dans plusieurs domaines. En [[Intelligence artificielle]] et [[Apprentissage automatique]], elle sert de base à des méthodes de prédiction et d’induction. Dans le domaine de la [[Compression de données]], elle permet d’identifier le programme le plus court capable de générer une séquence donnée. En [[Statistique]], elle contribue à l’évaluation de la complexité des modèles, favorisant ceux qui offrent une explication plus simple des phénomènes observés. En [[Bioinformatique]], elle est utilisée pour analyser les séquences génétiques et détecter des motifs pertinents. En [[Neurosciences]], elle permet d’étudier la manière dont le cerveau traite l’information. Enfin, elle intervient en [[Économie]] et en [[Physique]] pour modéliser des systèmes complexes et analyser les phénomènes naturels.&lt;br /&gt;
&lt;br /&gt;
== Limites et perspectives ==&lt;br /&gt;
&lt;br /&gt;
Bien que la probabilité algorithmique soit un concept puissant, elle présente plusieurs limites. L’un de ses principaux obstacles est l’impossibilité de calculer exactement la [[Complexité de Kolmogorov]], ce qui rend son application directe difficile. Pour contourner ce problème, les chercheurs utilisent des approximations qui ne garantissent pas toujours une précision optimale. Une autre difficulté réside dans la dépendance au choix de la machine de Turing universelle, bien que cette dépendance soit limitée par une constante. De plus, les calculs impliqués nécessitent une grande puissance de traitement, ce qui complique leur mise en œuvre pratique. Les recherches actuelles se concentrent sur l’amélioration des méthodes d’estimation et sur le développement de modèles probabilistes plus faciles à manipuler. L’impact de cette approche sur l’[[Intelligence artificielle]] et la prise de décision automatique est également un sujet d’intérêt croissant. Malgré ces défis, la probabilité algorithmique reste une approche prometteuse pour comprendre la complexité et l’information dans de nombreux domaines scientifiques.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=IUT_Charlemagne,_TP_Avril_2024&amp;diff=20369</id>
		<title>IUT Charlemagne, TP Avril 2024</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=IUT_Charlemagne,_TP_Avril_2024&amp;diff=20369"/>
		<updated>2025-04-28T06:15:21Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Exercice de 60 minutes &lt;br /&gt;
&lt;br /&gt;
*[[Le Micral]]&lt;br /&gt;
&lt;br /&gt;
*[[Hedy Lamarr]]&lt;br /&gt;
&lt;br /&gt;
*[[3D]] &lt;br /&gt;
&lt;br /&gt;
*[[Pixilation]]&lt;br /&gt;
&lt;br /&gt;
*[[Adobe]]&lt;br /&gt;
&lt;br /&gt;
*[[Evolution de la théorie de la communication]]&lt;br /&gt;
&lt;br /&gt;
*[[Jeu vidéo]] &lt;br /&gt;
&lt;br /&gt;
*[[Evolution de l’IA]]&lt;br /&gt;
&lt;br /&gt;
*[[Caméra]] &lt;br /&gt;
&lt;br /&gt;
*[[Les effets spéciaux]]&lt;br /&gt;
&lt;br /&gt;
*[[VR/AR]]&lt;br /&gt;
&lt;br /&gt;
*[[page test]]&lt;br /&gt;
&lt;br /&gt;
*[[Micral]]&lt;br /&gt;
&lt;br /&gt;
[[test page 2 ]]&lt;br /&gt;
&lt;br /&gt;
[[test 3 ]]&lt;br /&gt;
*[[IDJAFJMFJQMJG]]&lt;br /&gt;
&lt;br /&gt;
*[[Manchester Mark I]]&lt;br /&gt;
&lt;br /&gt;
*[[Colossus]]&lt;br /&gt;
&lt;br /&gt;
*[[Probabilité algorithmique]]&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20334</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20334"/>
		<updated>2024-04-09T12:48:12Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== &lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “[[Test de Turing]]&amp;quot;, une proposition révolutionnaire pour évaluer l'[[intelligence artificielle]]. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001, l’odyssée de l’espace de [[Stanley Kubrick]]” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur. &lt;br /&gt;
[[Fichier:HAL 9000.jpg|vignette|HAL-9000, l'IA du film &amp;quot;2001, l'odysée de l'espace&amp;quot;]]&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs [[Garry Kasparov]]. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Fonctionnement d'un modèle GPT.png|vignette|Fonctionnement du modèle GPT]]&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante [[ChatGPT-3]], créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, MidJourney, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Sources'''==&lt;br /&gt;
&lt;br /&gt;
[https://upload.wikimedia.org/wikipedia/commons/thumb/5/55/Turing_test_diagram.png/640px-Turing_test_diagram.png Diagramme du Test de Turing]&lt;br /&gt;
&lt;br /&gt;
[https://www.leparisien.fr/resizer/7RXtELWYLRPxyYkNCM0fwtGoYHk=/1248x782/cloudfront-eu-central-1.images.arcpublishing.com/leparisien/TVJCEXGZGZFBVGWIHCEFXZZMC4.jpg HAL-9000, l'IA du film &amp;quot;2001 l'odysée de l'espace&amp;quot;]&lt;br /&gt;
&lt;br /&gt;
[https://d3lkc3n5th01x7.cloudfront.net/wp-content/uploads/2023/02/06051541/How-to-Build-a-GPT-Model.png Fonctionnement du modèle GPT]&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20317</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20317"/>
		<updated>2024-04-09T12:41:45Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== &lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “[[Test de Turing]]&amp;quot;, une proposition révolutionnaire pour évaluer l'[[intelligence artificielle]]. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001, l’odyssée de l’espace de [[Stanley Kubrick]]” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur. &lt;br /&gt;
[[Fichier:HAL 9000.jpg|vignette|HAL-9000, l'IA du film &amp;quot;2001, l'odysée de l'espace&amp;quot;]]&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs [[Garry Kasparov]]. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Fonctionnement d'un modèle GPT.png|vignette|Fonctionnement du modèle GPT]]&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante [[ChatGPT-3]], créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, MidJourney, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20311</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20311"/>
		<updated>2024-04-09T12:38:54Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== &lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “[[Test de Turing]]&amp;quot;, une proposition révolutionnaire pour évaluer l'[[intelligence artificielle]]. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur. &lt;br /&gt;
[[Fichier:HAL 9000.jpg|vignette|HAL-9000, l'IA du film &amp;quot;2001, l'odysée de l'espace&amp;quot;]]&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Fonctionnement d'un modèle GPT.png|vignette|Fonctionnement du modèle GPT]]&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20307</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20307"/>
		<updated>2024-04-09T12:37:34Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== &lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur. &lt;br /&gt;
[[Fichier:HAL 9000.jpg|vignette|HAL-9000, l'IA du film &amp;quot;2001, l'odysée de l'espace&amp;quot;]]&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Fonctionnement d'un modèle GPT.png|vignette|Fonctionnement du modèle GPT]]&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Fichier:HAL_9000.jpg&amp;diff=20305</id>
		<title>Fichier:HAL 9000.jpg</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Fichier:HAL_9000.jpg&amp;diff=20305"/>
		<updated>2024-04-09T12:36:55Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;HAL 9000, IA de 2001 l'odysée de l'espace&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20290</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20290"/>
		<updated>2024-04-09T12:31:55Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== &lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Fonctionnement d'un modèle GPT.png|vignette|Fonctionnement du modèle GPT]]&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Fichier:Fonctionnement_d%27un_mod%C3%A8le_GPT.png&amp;diff=20289</id>
		<title>Fichier:Fonctionnement d'un modèle GPT.png</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Fichier:Fonctionnement_d%27un_mod%C3%A8le_GPT.png&amp;diff=20289"/>
		<updated>2024-04-09T12:31:31Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Description du fonctionnement d'un modèle GPT en anglais&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20282</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20282"/>
		<updated>2024-04-09T12:29:15Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== &lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20281</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20281"/>
		<updated>2024-04-09T12:28:50Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''== [[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20277</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20277"/>
		<updated>2024-04-09T12:28:14Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''==&lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20276</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20276"/>
		<updated>2024-04-09T12:27:42Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''==&lt;br /&gt;
&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20275</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20275"/>
		<updated>2024-04-09T12:27:16Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''==&lt;br /&gt;
&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
[[Fichier:Diagramme du test de Turing.png|vignette|Diagramme du test de Turing]]&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Fichier:Diagramme_du_test_de_Turing.png&amp;diff=20274</id>
		<title>Fichier:Diagramme du test de Turing.png</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Fichier:Diagramme_du_test_de_Turing.png&amp;diff=20274"/>
		<updated>2024-04-09T12:26:59Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Diagramme expliquant simplement le principe du test de Turing&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20265</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20265"/>
		<updated>2024-04-09T12:24:42Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : TP Charlemagne GR3 b a déplacé la page Evolution de l’IA vers Évolution de l’IA&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''==&lt;br /&gt;
&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Evolution_de_l%E2%80%99IA&amp;diff=20266</id>
		<title>Evolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=Evolution_de_l%E2%80%99IA&amp;diff=20266"/>
		<updated>2024-04-09T12:24:42Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : TP Charlemagne GR3 b a déplacé la page Evolution de l’IA vers Évolution de l’IA&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;#REDIRECTION [[Évolution de l’IA]]&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
	<entry>
		<id>https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20262</id>
		<title>Évolution de l’IA</title>
		<link rel="alternate" type="text/html" href="https://wicri-demo.istex.fr/Wicri/Incubateur/fr/index.php?title=%C3%89volution_de_l%E2%80%99IA&amp;diff=20262"/>
		<updated>2024-04-09T12:23:46Z</updated>

		<summary type="html">&lt;p&gt;TP Charlemagne GR3 b : /* L'EVOLUTION DE L'IA */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
=='''Publication du &amp;quot;Test de Turing&amp;quot; (1950)'''==&lt;br /&gt;
&lt;br /&gt;
En 1950, Alan Turing publie le “Test” de Turing&amp;quot;, une proposition révolutionnaire pour évaluer l'intelligence artificielle. Présenté dans son article intitulé &amp;quot;Computing Machinery and Intelligence&amp;quot;, ce test vise à évaluer la capacité d'une machine à penser de manière indiscernable d'un être humain. Le principe est simple : un interlocuteur doit dialoguer à l'aveugle avec une machine et un être humain, via des échanges écrits. Si l'interlocuteur ne parvient pas à distinguer la machine de l'humain, ou s'il se trompe dans son identification, la machine est considérée comme ayant réussi le test. Cependant le test de turing à des défauts, notamment dans le fait que le test peut être plus ou moins difficile pour l’IA si l'humain est interrogé et un spécialiste du sujet ou non. De plus, les contraintes de temps dans le cadre du test facilitent la tâche à l’IA, il est beaucoup plus simple de jouer à l'humain pendant 15 minutes que pendant des heures.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Émergence des systèmes experts (1980)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 1980, l'intelligence artificielle prend un virage significatif avec l'émergence des premiers systèmes experts conçus pour simuler le savoir-faire d'un spécialiste, dans un domaine précis et bien délimité, grâce à l'exploitation d'un certain nombre de connaissances fournies et d’approches de raisonnement symbolique. C'est -à -dire que cela repose sur des raisonnements logiques et formels. Ces systèmes permettent aux ordinateurs de manipuler des connaissances et de résoudre des problèmes complexes dans des domaines spécifiques.Grâce à des algorithmes, l'IA découvre des informations dans les données et se modifie à mesure qu'elle ingère de nouvelles données, en général elle a tendance à évoluer seule. &lt;br /&gt;
Finalement les systèmes marquent ainsi une avancée majeure dans le développement de l'IA, ouvrant de nouvelles perspectives quant à la modélisation et à la résolution de problèmes à l'aide de règles logiques.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Ralentissement relatif dans les années 1990'''==&lt;br /&gt;
&lt;br /&gt;
Côté culture, c’est en 1968 sort le film “”2001”, l’odyssée de l’espace de Stanley Kubrick” : une IA est l’un des personnages principaux. Cette œuvre prouve que le public s’intéresse de plus en plus aux découvertes scientifiques et technologiques du futur.&lt;br /&gt;
Dans les faits, côté sciences, les prémices des IA actuelles sont posées à partir de 1965 où le MIT et l’université de Stanford exploitent l’IA dans le cadre de la santé et de la recherche en chimie moléculaire. Les logiciels IA étaient  surtout utilisés pour reproduire la logique humaine et exploiter des données. &lt;br /&gt;
Au cours des années 1990, l'intelligence artificielle connaît un ralentissement relatif de son développement. Malgré des avancées prometteuses, le domaine est confronté à des défis techniques imprévus et à des attentes souvent exagérées nécessitant trop de ressources.. Cette période de désillusion met en lumière la complexité des problèmes à résoudre pour parvenir à créer une véritable intelligence artificielle, et souligne la nécessité d'une approche plus réaliste et pragmatique dans le domaine. Le développement des IA est surtout stoppé car les recherches sont focalisées sur le développement de l’ordinateur domestique.&lt;br /&gt;
Cependant, l’histoire de l’IA est marquée par un évènement majeur qui est la victoire du système “IBM Deep Blue”, un logiciel basé sur le deep learning, qui a battu le champion mondial d’échecs Garry Kasparov. La réussite n’est cependant pas convaincante car le processeur utilisé était simple et utilisait seulement des fonctionnalités limitées, bien loin de ce qui est connu actuellement.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Renaissance de l'IA : apprentissage automatique et réseaux de neurones (années 2000)'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2000, l'intelligence artificielle renaît grâce à l'émergence de l'apprentissage automatique et des réseaux de neurones artificiels, autrement dit des compétences humaines améliorées. Ces nouvelles méthodes permettent aux machines d'apprendre à partir de données et de développer des capacités de reconnaissance de motifs et de résolution de problèmes plus difficiles. Cette évolution ouvre la voie à de nouvelles applications et possibilités dans divers domaines, on retiendra notamment la reconnaissance vocale, la reconnaissance d’image ou encore la traduction automatique. &lt;br /&gt;
(marquant une avancée significative dans le monde de l'Intelligence Artificiel). Ces nouvelles fonctionnalités qui font maintenant partie intégrante d’internet marquent une avancée significative pour le monde d’internet mais surtout pour l’intelligence artificielle qui devient à présent une réalité.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Révolution de l'apprentissage profond (deep learning) dans les années 2010'''==&lt;br /&gt;
&lt;br /&gt;
Les années 2010 sont marquées par une révolution dans le domaine de l'intelligence artificielle avec l'avènement de l'apprentissage profond. Cette technique permet aux machines d'accomplir des tâches autrefois réservées à l'intelligence humaine, comme la reconnaissance d'images et la compréhension du langage naturel, autrement dit l’IA mène enfin le rôle pour lequel elle a été créée, remplacer des tâches humaines. L'apprentissage profond propulse l'IA au cœur de nombreuses industries dans l'exécution, planification ou encore calcul des tâches et transforme ainsi la manière dont nous interagissons avec la technologie au quotidien. Ce qui permet d’ouvrir la voie à un large panel de nouvelles applications et de progrès technologiques innovants .&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=='''Omniprésence de l'IA dans les années 2020 et au-delà'''==&lt;br /&gt;
&lt;br /&gt;
Dans les années 2020, l'intelligence artificielle a gagné une place de plus en plus importante dans notre quotidien, s'immisçant dans divers aspects de nos vies, tels que les assistants personnels sur nos appareils mobiles ou les suggestions de contenus sur les plateformes de streaming comme Netflix. &lt;br /&gt;
&lt;br /&gt;
De plus, cette année est marquée par l’arrivée de l’IA géante GPT-3, créée par le laboratoire de recherche OpenAI. C’est un outil de génération de texte écrivant des productions quasi impossibles à distinguer d’un article écrit par un humain. Dans les années 2022, c’est un logiciel IA générateur d’images qui est publié, Mid Journey, du laboratoire de recherche indépendant éponyme. L’IA est aussi sérieusement utilisée en médecine, où l’apprentissage automatique est utilisé pour diagnostiquer les acouphènes à partir de scintigraphies cérébrales. Tout ceci montre bien une évolution accrue des outils IA dans divers domaines. &lt;br /&gt;
&lt;br /&gt;
Cette évolution est aussi marquée par un fort investissement d’acteurs de plus en plus gros. Certes, il existe encore des laboratoires indépendants dédiés à l’intelligence artificielle, mais le fait que d’énormes groupes, acteurs majeurs comme Microsoft, Facebook ou Apple s’y intéressent signifie que de sérieuses ressources sont déployées pour gagner la course à l’IA. &lt;br /&gt;
&lt;br /&gt;
Cependant, cette expansion soulève également des questions relatives à des domaines sensibles tels que la protection de la vie privée et les implications sur l'emploi. Par ailleurs, elle suscite des interrogations quant aux enjeux de confidentialité et aux répercussions socio-économiques qui en découlent. Ainsi, il est primordial d'engager un débat approfondi afin de mieux appréhender les implications de cette technologie sur notre société.&lt;/div&gt;</summary>
		<author><name>TP Charlemagne GR3 b</name></author>
		
	</entry>
</feed>