2 min

Vivons-nous dans une simulation ‪?‬ Choses à Savoir SCIENCES

    • Science

Les romans et films de science-fonction présentent parfois notre univers comme une sorte de jeu vidéo. Mais cette idée un peu folle n'a pas seulement germé dans l'esprit fertile des romanciers et des scénaristes.
Un physicien britannique, Melvin Vopson, soutient, lui aussi, que notre monde ne serait en fait qu'une simulation informatique, dans lequel nous ne serions que de simples pions.
Pour énoncer cette stupéfiante théorie, le scientifique s'appuie sur la seconde loi de la thermodynamique. Elle postule que l'entropie d'un système fermé, autrement dit l'état d'agitation qui le caractérise, ne peut que croître ou stagner. En tout cas, elle ne peut pas diminuer.
Cette loi démontre donc le caractère irréversible de toute création d'entropie. Les phénomènes qu'elle concerne sont donc à sens unique.
Or, pour Melvin Vopson, cette loi, pourtant essentielle à la compréhension de notre univers, n'est pas toujours observée. Elle ne le serait pas, notamment, dans le domaine de l'information.
Ce que le physicien appelle ainsi, ce sont, par exemple, les informations nécessaires aux relations que doivent entretenir les particules subatomiques pour former un atome. Pour le scientifique, ces informations ont une masse, aussi infime soit-elle.
Au sein de notre univers, l'information ferait donc partie de la matière. Melvin Vopson aurait démontré que, dans le cas des systèmes d'information, l'entropie pourrait rester constante ou même diminuer. C'est sur la base d'un tel constat qu'il a créé ce qu'il appelle la "deuxième loi de l'infodynamique", un néologisme forgé à partir du mot "thermodynamique".
Un tel phénomène, qui contredit la seconde loi de thermodynamique, s'expliquerait cependant très bien si notre monde n'était qu'une simulation informatique. En effet, cette diminution de l'entropie informationnelle, si l'on peut dire, serait l'équivalent de la compression des données à laquelle on doit procéder, dans un système informatique, pour économiser la mémoire d'un ordinateur.
Cette "seconde loi de l'infodynamique" jouerait d'ailleurs un rôle dans d'autres domaines, comme la biologie. Elle tendrait ainsi à prouver, pour le physicien britannique, que les mutations génétiques ne se font pas au hasard, mais pour réduire l'entropie de l'information.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Les romans et films de science-fonction présentent parfois notre univers comme une sorte de jeu vidéo. Mais cette idée un peu folle n'a pas seulement germé dans l'esprit fertile des romanciers et des scénaristes.
Un physicien britannique, Melvin Vopson, soutient, lui aussi, que notre monde ne serait en fait qu'une simulation informatique, dans lequel nous ne serions que de simples pions.
Pour énoncer cette stupéfiante théorie, le scientifique s'appuie sur la seconde loi de la thermodynamique. Elle postule que l'entropie d'un système fermé, autrement dit l'état d'agitation qui le caractérise, ne peut que croître ou stagner. En tout cas, elle ne peut pas diminuer.
Cette loi démontre donc le caractère irréversible de toute création d'entropie. Les phénomènes qu'elle concerne sont donc à sens unique.
Or, pour Melvin Vopson, cette loi, pourtant essentielle à la compréhension de notre univers, n'est pas toujours observée. Elle ne le serait pas, notamment, dans le domaine de l'information.
Ce que le physicien appelle ainsi, ce sont, par exemple, les informations nécessaires aux relations que doivent entretenir les particules subatomiques pour former un atome. Pour le scientifique, ces informations ont une masse, aussi infime soit-elle.
Au sein de notre univers, l'information ferait donc partie de la matière. Melvin Vopson aurait démontré que, dans le cas des systèmes d'information, l'entropie pourrait rester constante ou même diminuer. C'est sur la base d'un tel constat qu'il a créé ce qu'il appelle la "deuxième loi de l'infodynamique", un néologisme forgé à partir du mot "thermodynamique".
Un tel phénomène, qui contredit la seconde loi de thermodynamique, s'expliquerait cependant très bien si notre monde n'était qu'une simulation informatique. En effet, cette diminution de l'entropie informationnelle, si l'on peut dire, serait l'équivalent de la compression des données à laquelle on doit procéder, dans un système informatique, pour économiser la mémoire d'un ordinateur.
Cette "seconde loi de l'infodynamique" jouerait d'ailleurs un rôle dans d'autres domaines, comme la biologie. Elle tendrait ainsi à prouver, pour le physicien britannique, que les mutations génétiques ne se font pas au hasard, mais pour réduire l'entropie de l'information.

Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

2 min

Top Podcasts In Science

Ciência Sem Fim
Estúdios Flow
Naruhodo
B9, Naruhodo, Ken Fujioka, Altay de Souza
Science Vs
Spotify Studios
Hidden Brain
Hidden Brain, Shankar Vedantam
The Curious Cases of Rutherford & Fry
BBC Radio 4
Your Brain On
Drs. Ayesha and Dean Sherzai

More by Choses à Savoir

Choses à Savoir SCIENCES
Choses à Savoir
Choses à Savoir
Choses à Savoir
Choses à Savoir ÉCONOMIE
Choses à Savoir
Choses à Savoir TECH VERTE
Choses à Savoir
Choses à Savoir CERVEAU
Choses à Savoir
You'll Die Smarter
Choses a Savoir