Le Prix Nobel de physique de 2012 comme : prolongement historique de la théorie 2013
Page 1 sur 1
Le Prix Nobel de physique de 2012 comme : prolongement historique de la théorie 2013
2013 2013 2013
Dès le début des années 70, date où l'instrumentation en physique expérimentale suffisamment développée, va commencer à permettre de vérifier les inégalités de Bell. Deux universités, Harvard et Berkeley, ont commencé à mettre en œuvre un protocole expérimental sur ces bases, et les expériences ont eu lieu en 1972 (bien après la marche du premier homme sur la lune). Les résultats furent contradictoires : Harvard constata une vérification des inégalités, et par conséquent une contradiction avec la physique quantique. Berkeley trouva au contraire une violation des inégalités de Bell, et une vérification de la physique quantique. Le problème de ces expériences était notamment une source de particules intriquées peu fiable et de faibles débits, ce qui nécessitait des temps d'expériences s'étendant sur plusieurs jours en continu. Comme il était difficile de maintenir les mêmes conditions expérimentales sur des temps aussi longs, les résultats de ces expériences étaient sujets à caution.
En 1976, la même expérience fut répétée à Houston avec une meilleure source de photons intriqués (corrélés), dont le temps expérimental est descendu à hauteur de 80 minutes. Les photons n'étant pas bien polarisés, n'ont pas empêché un premier doute sur une éventuelle violation des inégalités de Bell. Ce sont des expériences qui n'étaient pas bien élaborées, pour évacuer les possibilités de corrélations qui seraient dues à une influence classique de vitesse infra-luminique se propageant entre les particules.
En 1980, il manquait encore une expérience décisive vérifiant la réalité de l'intrication quantique, sur la base de la violation des inégalités de Bell. En 1982, Alain Aspect de l'Institut d'Optique de Paris, a spécifié que son expérience pouvait être la plus décisive possible, si elle répondait à certains critères.
Elle doit avoir une excellente source de particules afin d'avoir un temps d'expérience court, et une violation plus nette des inégalités de Bell.
Elle doit mettre en évidence des corrélations de mesure dues à des effets quantiques (influence instantanée) et non à un effet classique.
Le schéma expérimental doit être le plus proche possible du schéma utilisé par J. Bell, afin que l'accord entre les résultats mesurés et prédits soient les plus significatifs possibles.
La source utilisée est une cascade atomique d'atomes de calcium, excitée à l'aide d'un laser krypton, pour libérer des photons par paires corrélées dans des états de polarisation opposés. Les inégalités de Bell permettent d'établir une courbe théorique du nombre de corrélations ente états, et celle obtenue par A. Aspect se trouve en adéquation d'établir quantitativement et qualitativement cette violation, mais avec l'implication d'un hypothétique signal de coordination qui se déplace deux fois plus vite que la vitesse de la lumière. La qualité technique de cette expérience, le soin apporté pour éviter les artefacts expérimentaux, ont largement convaincu la communauté scientifique internationale de la réalité de la violation de l'inégalité de Bell par la physique quantique, et donc de la réalité de la non-localité quantique. Décrire cette expérience a interpellé l'auteur de cet article à se souvenir d'une occasion de rencontre avec le physicien français Kessler du Collège de France à la fin de l'année 1994, qui fut un ami proche d'A. Aspect. Parmi les sujets de discussion entamés avec lui, cette fameuse expérience et ce signal hypothétique, et qu'à ce titre et selon Kessler, Aspect était à cette époque parmi les plus favoris au Prix Nobel. Sur un ton calme et serein sentant recul, sagesse et humilité, Kessler a bien souligné verbalement que « mon ami Alain Aspect est parfaitement nobélisable, il n'y a aucune raison pour qu'il ne le soit pas ». Et depuis, beaucoup d'eau a coulé sous les ponts.
En 1998, l'expérience de Genève a testé des corrélations entre deux détecteurs distants de 30 km, en utilisant le réseau suisse de télécommunication par fibre optique, a montré une nette violation des inégalités de Bell avec l'hypothétique signal de coordination qui arrivait à 10 millions de fois la vitesse de la lumière (c'est un autre sujet de la physique exotique qui est ouvert pour discussion).
Une grande question reste tout de même posée, et qui revient souvent à l'esprit, c'est comment tous les objets décrits par la physique classique (projectile, voiture, fusée, planète etc.) qui, étant formés à l'origine d'atomes et de particules bien décrits par la physique quantique, qui, elle, n'arrive pas à décrire ces objets ? Les tentatives en ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. C'est la théorie de la décohérence quantique qui est à ce jour l'une des tentatives les plus satisfaisantes bien qu'elle ne traite pas la totalité des problèmes.
Le problème majeur est que la physique quantique admet des états superposés, absolument inconnus à un niveau macroscopique décrit par la physique classique. De même, cette théorie quantique tient compte de cette non-observabilité des états superposés quantiques en stipulant que tout acte d'observation provoque un effondrement de la fonction d'onde, et sélectionne instantanément un et un seul état parmi l'ensemble des états possibles. Cela donne lieu à une contradiction mathématique entre le postulat de réduction du paquet d'onde avec celui de l'équation d'évolution. Tel est le problème principalement traité par la décohérence, qui s'attaque au problème de la disparition des états superposés au niveau macroscopique. Son objectif est de montrer que cette contradiction n'a pas lieu d'être et que c'est plutôt une compatibilité.
En effet selon cette théorie, chaque éventualité d'un état superposé interagit avec son environnement, et on peut démontrer mathématiquement que chaque interaction déphase les fonctions d'ondes les unes par rapport aux autres jusqu'à devenir orthogonales et de produit scalaire nul. Seuls restent observables les états correspondant aux états observables macroscopiquement, par exemple dans le cas du Chat de Schrِdinger mort ou bien vivant. De plus, la théorie de la décohérence prévoit qu'un certain temps est nécessaire pour que les déphasages s'accumulent et finissent par rendre négligeable la probabilité des états superposés.
Toutes les étapes, depuis le paradoxe EPR jusqu'au Qubit, se trouvent dans la seule et même expérience CQED (Quantum ElectroDynamics) de S. Haroche, améliorée par étapes pendant plus de quinze ans. A commencer d'abord par la réalisation d'un atome de Rydberg, d'un système quantique intriqué (existant au préalable dans l'expérience d'Aspect pour deux particules non massives), d'une Cavité CQED, d'une spectroscopie atomique RIS (Resonance ionisation spectroscopy) à l'aide de l'interféromètre de Ramsey et une spectroscopie micro-onde à l'aide d'un interféromètre Perrot-Fabry à miroirs circulaires et supraconducteurs pour disperser les modes très hautes fréquences de 51 GHZs, et dissiper/transformer en maser les modes basses fréquences. L'ensemble de cette instrumentation plongé dans une station cryogénique de 0.6 °K, est réglé de façon à avoir un minimum de décohérence quantique possible.
Un atome de Rydberg est un atome très excité dans lequel l'électron externe se trouve dans un niveau d'énergie élevé, très proche de l'ionisation. Les atomes de Rydberg ressemblent beaucoup aux atomes d'hydrogène car l'électron excité est dans une orbite si éloignée qu'il se trouve bien au-delà des orbites des autres électrons. Un atome de numéro atomique Z possède un électron très éloigné du cœur de charge +e comme l'atome d'hydrogène, et n'importe quel atome peut devenir un atome de Rydberg. Ce sont des atomes très gros jusqu'à 100 000 fois plus gros que les atomes normaux. Bien qu'ils soient dans un état excité, leur temps de vie est étonnamment très long, plus d'un million de fois le temps de vie des atomes normaux. Les atomes de Rydberg, ont donc des durées de vie trop longues, presque infinies. L'atome de Rydberg choisi par S. Haroche et son équipe est l'atome de rubidium entre les niveaux, excité indexé par le nombre quantique principal n entre les 51 et 50. Ce qui porte son volume presque à 1500 fois le volume initial. La plaque d'émission de Ramsey focalise ledit atome sur la cavité QED et une fois introduit, il subit l'oscillation de Rabi comme effet de couplage avec la cavité même en absence de photons. Son état est un état quantique intriqué, car c'est une combinaison linéaire des deux états associés aux deux niveaux 50/51qui sont l'équivalent des états mort/vivant du chat de Schrِdinger. C'est la première réalisation pratique de la métaphore chat de Schrِdinger avec des particules massives.
Ceci donne à cet atome une dimension micrométrique et au même temps la propriété de dispersion et donc posséder un indice de réfraction. Lui permettre de se corréler avec le photon émis dans cette cavité par processus Starck, donne lieu à un déphasage par rapport à la fréquence de Rabi. Ce déphasage est transformé en amplitude mesurable qui permet au photon d'être déterminé en intensité et donc en nombre avec la probabilité d'être dans l'état 50 ou 51. Un atome corrélé au photon est en fait une entité de taille mésoscopique définie sur toute la longueur de corrélation, constitue un QuBit, l'unité de mémoire pour le futur calculateur quantique, avec une durée de vie, c'est-à-dire une durée de mémoire infinie. Une chaîne de plusieurs centaines d'atomes de rubidium donne une chaine de taille macroscopique située au-delà du millimétrique. C'est donc une chaine accessible à notre échelle, qui peut être le siège de multiQuBits et donc d'un transfert de grandes quantités d'informations.
Une première lecture des principaux articles publiés par S. Haroche et D. Wineland nous a été un impératif incontournable, pour rendre compte de la valeur et de l'immensité de l'effort accompli au milieu d'une communauté scientifique et d'une intelligentsia de haut rang. Précisons tout de même, que nous n'avions eu accès à toute cette abondante littérature, que grâce à l'aide apportée par les organismes scientifiques internationaux. A ce sujet, nous avons bénéficié des bons services de l'AIP (American Institute of Physics), de l'APS (American Physical Society) et de l'OSA (Optical Society of America), qui mettent à notre disposition chaque année tous les travaux des Prix Nobel de physique depuis quelques années, ainsi qu'un courrier hebdomadaire portant sur tous les travaux de recherches récemment publiés dans leurs organes. C'est grâce à ces services qui nous sont rendus, que l'aboutissement à concrétiser cet article a eu lieu, qui va certainement être suivi d'autres articles.
* Professeur et directeur de Laboratoire de recherche en physique Université Mohammed 1er Oujda
</div>
2013 2013 2013
Dès le début des années 70, date où l'instrumentation en physique expérimentale suffisamment développée, va commencer à permettre de vérifier les inégalités de Bell. Deux universités, Harvard et Berkeley, ont commencé à mettre en œuvre un protocole expérimental sur ces bases, et les expériences ont eu lieu en 1972 (bien après la marche du premier homme sur la lune). Les résultats furent contradictoires : Harvard constata une vérification des inégalités, et par conséquent une contradiction avec la physique quantique. Berkeley trouva au contraire une violation des inégalités de Bell, et une vérification de la physique quantique. Le problème de ces expériences était notamment une source de particules intriquées peu fiable et de faibles débits, ce qui nécessitait des temps d'expériences s'étendant sur plusieurs jours en continu. Comme il était difficile de maintenir les mêmes conditions expérimentales sur des temps aussi longs, les résultats de ces expériences étaient sujets à caution.
En 1976, la même expérience fut répétée à Houston avec une meilleure source de photons intriqués (corrélés), dont le temps expérimental est descendu à hauteur de 80 minutes. Les photons n'étant pas bien polarisés, n'ont pas empêché un premier doute sur une éventuelle violation des inégalités de Bell. Ce sont des expériences qui n'étaient pas bien élaborées, pour évacuer les possibilités de corrélations qui seraient dues à une influence classique de vitesse infra-luminique se propageant entre les particules.
En 1980, il manquait encore une expérience décisive vérifiant la réalité de l'intrication quantique, sur la base de la violation des inégalités de Bell. En 1982, Alain Aspect de l'Institut d'Optique de Paris, a spécifié que son expérience pouvait être la plus décisive possible, si elle répondait à certains critères.
Elle doit avoir une excellente source de particules afin d'avoir un temps d'expérience court, et une violation plus nette des inégalités de Bell.
Elle doit mettre en évidence des corrélations de mesure dues à des effets quantiques (influence instantanée) et non à un effet classique.
Le schéma expérimental doit être le plus proche possible du schéma utilisé par J. Bell, afin que l'accord entre les résultats mesurés et prédits soient les plus significatifs possibles.
La source utilisée est une cascade atomique d'atomes de calcium, excitée à l'aide d'un laser krypton, pour libérer des photons par paires corrélées dans des états de polarisation opposés. Les inégalités de Bell permettent d'établir une courbe théorique du nombre de corrélations ente états, et celle obtenue par A. Aspect se trouve en adéquation d'établir quantitativement et qualitativement cette violation, mais avec l'implication d'un hypothétique signal de coordination qui se déplace deux fois plus vite que la vitesse de la lumière. La qualité technique de cette expérience, le soin apporté pour éviter les artefacts expérimentaux, ont largement convaincu la communauté scientifique internationale de la réalité de la violation de l'inégalité de Bell par la physique quantique, et donc de la réalité de la non-localité quantique. Décrire cette expérience a interpellé l'auteur de cet article à se souvenir d'une occasion de rencontre avec le physicien français Kessler du Collège de France à la fin de l'année 1994, qui fut un ami proche d'A. Aspect. Parmi les sujets de discussion entamés avec lui, cette fameuse expérience et ce signal hypothétique, et qu'à ce titre et selon Kessler, Aspect était à cette époque parmi les plus favoris au Prix Nobel. Sur un ton calme et serein sentant recul, sagesse et humilité, Kessler a bien souligné verbalement que « mon ami Alain Aspect est parfaitement nobélisable, il n'y a aucune raison pour qu'il ne le soit pas ». Et depuis, beaucoup d'eau a coulé sous les ponts.
En 1998, l'expérience de Genève a testé des corrélations entre deux détecteurs distants de 30 km, en utilisant le réseau suisse de télécommunication par fibre optique, a montré une nette violation des inégalités de Bell avec l'hypothétique signal de coordination qui arrivait à 10 millions de fois la vitesse de la lumière (c'est un autre sujet de la physique exotique qui est ouvert pour discussion).
Une grande question reste tout de même posée, et qui revient souvent à l'esprit, c'est comment tous les objets décrits par la physique classique (projectile, voiture, fusée, planète etc.) qui, étant formés à l'origine d'atomes et de particules bien décrits par la physique quantique, qui, elle, n'arrive pas à décrire ces objets ? Les tentatives en ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. C'est la théorie de la décohérence quantique qui est à ce jour l'une des tentatives les plus satisfaisantes bien qu'elle ne traite pas la totalité des problèmes.
Le problème majeur est que la physique quantique admet des états superposés, absolument inconnus à un niveau macroscopique décrit par la physique classique. De même, cette théorie quantique tient compte de cette non-observabilité des états superposés quantiques en stipulant que tout acte d'observation provoque un effondrement de la fonction d'onde, et sélectionne instantanément un et un seul état parmi l'ensemble des états possibles. Cela donne lieu à une contradiction mathématique entre le postulat de réduction du paquet d'onde avec celui de l'équation d'évolution. Tel est le problème principalement traité par la décohérence, qui s'attaque au problème de la disparition des états superposés au niveau macroscopique. Son objectif est de montrer que cette contradiction n'a pas lieu d'être et que c'est plutôt une compatibilité.
En effet selon cette théorie, chaque éventualité d'un état superposé interagit avec son environnement, et on peut démontrer mathématiquement que chaque interaction déphase les fonctions d'ondes les unes par rapport aux autres jusqu'à devenir orthogonales et de produit scalaire nul. Seuls restent observables les états correspondant aux états observables macroscopiquement, par exemple dans le cas du Chat de Schrِdinger mort ou bien vivant. De plus, la théorie de la décohérence prévoit qu'un certain temps est nécessaire pour que les déphasages s'accumulent et finissent par rendre négligeable la probabilité des états superposés.
Toutes les étapes, depuis le paradoxe EPR jusqu'au Qubit, se trouvent dans la seule et même expérience CQED (Quantum ElectroDynamics) de S. Haroche, améliorée par étapes pendant plus de quinze ans. A commencer d'abord par la réalisation d'un atome de Rydberg, d'un système quantique intriqué (existant au préalable dans l'expérience d'Aspect pour deux particules non massives), d'une Cavité CQED, d'une spectroscopie atomique RIS (Resonance ionisation spectroscopy) à l'aide de l'interféromètre de Ramsey et une spectroscopie micro-onde à l'aide d'un interféromètre Perrot-Fabry à miroirs circulaires et supraconducteurs pour disperser les modes très hautes fréquences de 51 GHZs, et dissiper/transformer en maser les modes basses fréquences. L'ensemble de cette instrumentation plongé dans une station cryogénique de 0.6 °K, est réglé de façon à avoir un minimum de décohérence quantique possible.
Un atome de Rydberg est un atome très excité dans lequel l'électron externe se trouve dans un niveau d'énergie élevé, très proche de l'ionisation. Les atomes de Rydberg ressemblent beaucoup aux atomes d'hydrogène car l'électron excité est dans une orbite si éloignée qu'il se trouve bien au-delà des orbites des autres électrons. Un atome de numéro atomique Z possède un électron très éloigné du cœur de charge +e comme l'atome d'hydrogène, et n'importe quel atome peut devenir un atome de Rydberg. Ce sont des atomes très gros jusqu'à 100 000 fois plus gros que les atomes normaux. Bien qu'ils soient dans un état excité, leur temps de vie est étonnamment très long, plus d'un million de fois le temps de vie des atomes normaux. Les atomes de Rydberg, ont donc des durées de vie trop longues, presque infinies. L'atome de Rydberg choisi par S. Haroche et son équipe est l'atome de rubidium entre les niveaux, excité indexé par le nombre quantique principal n entre les 51 et 50. Ce qui porte son volume presque à 1500 fois le volume initial. La plaque d'émission de Ramsey focalise ledit atome sur la cavité QED et une fois introduit, il subit l'oscillation de Rabi comme effet de couplage avec la cavité même en absence de photons. Son état est un état quantique intriqué, car c'est une combinaison linéaire des deux états associés aux deux niveaux 50/51qui sont l'équivalent des états mort/vivant du chat de Schrِdinger. C'est la première réalisation pratique de la métaphore chat de Schrِdinger avec des particules massives.
Ceci donne à cet atome une dimension micrométrique et au même temps la propriété de dispersion et donc posséder un indice de réfraction. Lui permettre de se corréler avec le photon émis dans cette cavité par processus Starck, donne lieu à un déphasage par rapport à la fréquence de Rabi. Ce déphasage est transformé en amplitude mesurable qui permet au photon d'être déterminé en intensité et donc en nombre avec la probabilité d'être dans l'état 50 ou 51. Un atome corrélé au photon est en fait une entité de taille mésoscopique définie sur toute la longueur de corrélation, constitue un QuBit, l'unité de mémoire pour le futur calculateur quantique, avec une durée de vie, c'est-à-dire une durée de mémoire infinie. Une chaîne de plusieurs centaines d'atomes de rubidium donne une chaine de taille macroscopique située au-delà du millimétrique. C'est donc une chaine accessible à notre échelle, qui peut être le siège de multiQuBits et donc d'un transfert de grandes quantités d'informations.
Une première lecture des principaux articles publiés par S. Haroche et D. Wineland nous a été un impératif incontournable, pour rendre compte de la valeur et de l'immensité de l'effort accompli au milieu d'une communauté scientifique et d'une intelligentsia de haut rang. Précisons tout de même, que nous n'avions eu accès à toute cette abondante littérature, que grâce à l'aide apportée par les organismes scientifiques internationaux. A ce sujet, nous avons bénéficié des bons services de l'AIP (American Institute of Physics), de l'APS (American Physical Society) et de l'OSA (Optical Society of America), qui mettent à notre disposition chaque année tous les travaux des Prix Nobel de physique depuis quelques années, ainsi qu'un courrier hebdomadaire portant sur tous les travaux de recherches récemment publiés dans leurs organes. C'est grâce à ces services qui nous sont rendus, que l'aboutissement à concrétiser cet article a eu lieu, qui va certainement être suivi d'autres articles.
* Professeur et directeur de Laboratoire de recherche en physique Université Mohammed 1er Oujda
</div>
2013 2013 2013
Matrix - The continuous development
Le Prix Nobel de physique de 2012 comme : prolongement historique de la théorie quantique (Suite et fin)
Abdelkarim Nougaoui
Libération le 05 - 12 - 2012
Abdelkarim Nougaoui
Libération le 05 - 12 - 2012
Dès le début des années 70, date où l'instrumentation en physique expérimentale suffisamment développée, va commencer à permettre de vérifier les inégalités de Bell. Deux universités, Harvard et Berkeley, ont commencé à mettre en œuvre un protocole expérimental sur ces bases, et les expériences ont eu lieu en 1972 (bien après la marche du premier homme sur la lune). Les résultats furent contradictoires : Harvard constata une vérification des inégalités, et par conséquent une contradiction avec la physique quantique. Berkeley trouva au contraire une violation des inégalités de Bell, et une vérification de la physique quantique. Le problème de ces expériences était notamment une source de particules intriquées peu fiable et de faibles débits, ce qui nécessitait des temps d'expériences s'étendant sur plusieurs jours en continu. Comme il était difficile de maintenir les mêmes conditions expérimentales sur des temps aussi longs, les résultats de ces expériences étaient sujets à caution.
En 1976, la même expérience fut répétée à Houston avec une meilleure source de photons intriqués (corrélés), dont le temps expérimental est descendu à hauteur de 80 minutes. Les photons n'étant pas bien polarisés, n'ont pas empêché un premier doute sur une éventuelle violation des inégalités de Bell. Ce sont des expériences qui n'étaient pas bien élaborées, pour évacuer les possibilités de corrélations qui seraient dues à une influence classique de vitesse infra-luminique se propageant entre les particules.
En 1980, il manquait encore une expérience décisive vérifiant la réalité de l'intrication quantique, sur la base de la violation des inégalités de Bell. En 1982, Alain Aspect de l'Institut d'Optique de Paris, a spécifié que son expérience pouvait être la plus décisive possible, si elle répondait à certains critères.
Elle doit avoir une excellente source de particules afin d'avoir un temps d'expérience court, et une violation plus nette des inégalités de Bell.
Elle doit mettre en évidence des corrélations de mesure dues à des effets quantiques (influence instantanée) et non à un effet classique.
Le schéma expérimental doit être le plus proche possible du schéma utilisé par J. Bell, afin que l'accord entre les résultats mesurés et prédits soient les plus significatifs possibles.
La source utilisée est une cascade atomique d'atomes de calcium, excitée à l'aide d'un laser krypton, pour libérer des photons par paires corrélées dans des états de polarisation opposés. Les inégalités de Bell permettent d'établir une courbe théorique du nombre de corrélations ente états, et celle obtenue par A. Aspect se trouve en adéquation d'établir quantitativement et qualitativement cette violation, mais avec l'implication d'un hypothétique signal de coordination qui se déplace deux fois plus vite que la vitesse de la lumière. La qualité technique de cette expérience, le soin apporté pour éviter les artefacts expérimentaux, ont largement convaincu la communauté scientifique internationale de la réalité de la violation de l'inégalité de Bell par la physique quantique, et donc de la réalité de la non-localité quantique. Décrire cette expérience a interpellé l'auteur de cet article à se souvenir d'une occasion de rencontre avec le physicien français Kessler du Collège de France à la fin de l'année 1994, qui fut un ami proche d'A. Aspect. Parmi les sujets de discussion entamés avec lui, cette fameuse expérience et ce signal hypothétique, et qu'à ce titre et selon Kessler, Aspect était à cette époque parmi les plus favoris au Prix Nobel. Sur un ton calme et serein sentant recul, sagesse et humilité, Kessler a bien souligné verbalement que « mon ami Alain Aspect est parfaitement nobélisable, il n'y a aucune raison pour qu'il ne le soit pas ». Et depuis, beaucoup d'eau a coulé sous les ponts.
En 1998, l'expérience de Genève a testé des corrélations entre deux détecteurs distants de 30 km, en utilisant le réseau suisse de télécommunication par fibre optique, a montré une nette violation des inégalités de Bell avec l'hypothétique signal de coordination qui arrivait à 10 millions de fois la vitesse de la lumière (c'est un autre sujet de la physique exotique qui est ouvert pour discussion).
Une grande question reste tout de même posée, et qui revient souvent à l'esprit, c'est comment tous les objets décrits par la physique classique (projectile, voiture, fusée, planète etc.) qui, étant formés à l'origine d'atomes et de particules bien décrits par la physique quantique, qui, elle, n'arrive pas à décrire ces objets ? Les tentatives en ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. C'est la théorie de la décohérence quantique qui est à ce jour l'une des tentatives les plus satisfaisantes bien qu'elle ne traite pas la totalité des problèmes.
Le problème majeur est que la physique quantique admet des états superposés, absolument inconnus à un niveau macroscopique décrit par la physique classique. De même, cette théorie quantique tient compte de cette non-observabilité des états superposés quantiques en stipulant que tout acte d'observation provoque un effondrement de la fonction d'onde, et sélectionne instantanément un et un seul état parmi l'ensemble des états possibles. Cela donne lieu à une contradiction mathématique entre le postulat de réduction du paquet d'onde avec celui de l'équation d'évolution. Tel est le problème principalement traité par la décohérence, qui s'attaque au problème de la disparition des états superposés au niveau macroscopique. Son objectif est de montrer que cette contradiction n'a pas lieu d'être et que c'est plutôt une compatibilité.
En effet selon cette théorie, chaque éventualité d'un état superposé interagit avec son environnement, et on peut démontrer mathématiquement que chaque interaction déphase les fonctions d'ondes les unes par rapport aux autres jusqu'à devenir orthogonales et de produit scalaire nul. Seuls restent observables les états correspondant aux états observables macroscopiquement, par exemple dans le cas du Chat de Schrِdinger mort ou bien vivant. De plus, la théorie de la décohérence prévoit qu'un certain temps est nécessaire pour que les déphasages s'accumulent et finissent par rendre négligeable la probabilité des états superposés.
Toutes les étapes, depuis le paradoxe EPR jusqu'au Qubit, se trouvent dans la seule et même expérience CQED (Quantum ElectroDynamics) de S. Haroche, améliorée par étapes pendant plus de quinze ans. A commencer d'abord par la réalisation d'un atome de Rydberg, d'un système quantique intriqué (existant au préalable dans l'expérience d'Aspect pour deux particules non massives), d'une Cavité CQED, d'une spectroscopie atomique RIS (Resonance ionisation spectroscopy) à l'aide de l'interféromètre de Ramsey et une spectroscopie micro-onde à l'aide d'un interféromètre Perrot-Fabry à miroirs circulaires et supraconducteurs pour disperser les modes très hautes fréquences de 51 GHZs, et dissiper/transformer en maser les modes basses fréquences. L'ensemble de cette instrumentation plongé dans une station cryogénique de 0.6 °K, est réglé de façon à avoir un minimum de décohérence quantique possible.
Un atome de Rydberg est un atome très excité dans lequel l'électron externe se trouve dans un niveau d'énergie élevé, très proche de l'ionisation. Les atomes de Rydberg ressemblent beaucoup aux atomes d'hydrogène car l'électron excité est dans une orbite si éloignée qu'il se trouve bien au-delà des orbites des autres électrons. Un atome de numéro atomique Z possède un électron très éloigné du cœur de charge +e comme l'atome d'hydrogène, et n'importe quel atome peut devenir un atome de Rydberg. Ce sont des atomes très gros jusqu'à 100 000 fois plus gros que les atomes normaux. Bien qu'ils soient dans un état excité, leur temps de vie est étonnamment très long, plus d'un million de fois le temps de vie des atomes normaux. Les atomes de Rydberg, ont donc des durées de vie trop longues, presque infinies. L'atome de Rydberg choisi par S. Haroche et son équipe est l'atome de rubidium entre les niveaux, excité indexé par le nombre quantique principal n entre les 51 et 50. Ce qui porte son volume presque à 1500 fois le volume initial. La plaque d'émission de Ramsey focalise ledit atome sur la cavité QED et une fois introduit, il subit l'oscillation de Rabi comme effet de couplage avec la cavité même en absence de photons. Son état est un état quantique intriqué, car c'est une combinaison linéaire des deux états associés aux deux niveaux 50/51qui sont l'équivalent des états mort/vivant du chat de Schrِdinger. C'est la première réalisation pratique de la métaphore chat de Schrِdinger avec des particules massives.
Ceci donne à cet atome une dimension micrométrique et au même temps la propriété de dispersion et donc posséder un indice de réfraction. Lui permettre de se corréler avec le photon émis dans cette cavité par processus Starck, donne lieu à un déphasage par rapport à la fréquence de Rabi. Ce déphasage est transformé en amplitude mesurable qui permet au photon d'être déterminé en intensité et donc en nombre avec la probabilité d'être dans l'état 50 ou 51. Un atome corrélé au photon est en fait une entité de taille mésoscopique définie sur toute la longueur de corrélation, constitue un QuBit, l'unité de mémoire pour le futur calculateur quantique, avec une durée de vie, c'est-à-dire une durée de mémoire infinie. Une chaîne de plusieurs centaines d'atomes de rubidium donne une chaine de taille macroscopique située au-delà du millimétrique. C'est donc une chaine accessible à notre échelle, qui peut être le siège de multiQuBits et donc d'un transfert de grandes quantités d'informations.
Une première lecture des principaux articles publiés par S. Haroche et D. Wineland nous a été un impératif incontournable, pour rendre compte de la valeur et de l'immensité de l'effort accompli au milieu d'une communauté scientifique et d'une intelligentsia de haut rang. Précisons tout de même, que nous n'avions eu accès à toute cette abondante littérature, que grâce à l'aide apportée par les organismes scientifiques internationaux. A ce sujet, nous avons bénéficié des bons services de l'AIP (American Institute of Physics), de l'APS (American Physical Society) et de l'OSA (Optical Society of America), qui mettent à notre disposition chaque année tous les travaux des Prix Nobel de physique depuis quelques années, ainsi qu'un courrier hebdomadaire portant sur tous les travaux de recherches récemment publiés dans leurs organes. C'est grâce à ces services qui nous sont rendus, que l'aboutissement à concrétiser cet article a eu lieu, qui va certainement être suivi d'autres articles.
* Professeur et directeur de Laboratoire de recherche en physique Université Mohammed 1er Oujda
</div>
2013 2013 2013
Le Prix Nobel de physique de 2012 comme : prolongement historique de la théorie quantique (Suite et fin)
Abdelkarim Nougaoui
Libération le 05 - 12 - 2012
Abdelkarim Nougaoui
Libération le 05 - 12 - 2012
Dès le début des années 70, date où l'instrumentation en physique expérimentale suffisamment développée, va commencer à permettre de vérifier les inégalités de Bell. Deux universités, Harvard et Berkeley, ont commencé à mettre en œuvre un protocole expérimental sur ces bases, et les expériences ont eu lieu en 1972 (bien après la marche du premier homme sur la lune). Les résultats furent contradictoires : Harvard constata une vérification des inégalités, et par conséquent une contradiction avec la physique quantique. Berkeley trouva au contraire une violation des inégalités de Bell, et une vérification de la physique quantique. Le problème de ces expériences était notamment une source de particules intriquées peu fiable et de faibles débits, ce qui nécessitait des temps d'expériences s'étendant sur plusieurs jours en continu. Comme il était difficile de maintenir les mêmes conditions expérimentales sur des temps aussi longs, les résultats de ces expériences étaient sujets à caution.
En 1976, la même expérience fut répétée à Houston avec une meilleure source de photons intriqués (corrélés), dont le temps expérimental est descendu à hauteur de 80 minutes. Les photons n'étant pas bien polarisés, n'ont pas empêché un premier doute sur une éventuelle violation des inégalités de Bell. Ce sont des expériences qui n'étaient pas bien élaborées, pour évacuer les possibilités de corrélations qui seraient dues à une influence classique de vitesse infra-luminique se propageant entre les particules.
En 1980, il manquait encore une expérience décisive vérifiant la réalité de l'intrication quantique, sur la base de la violation des inégalités de Bell. En 1982, Alain Aspect de l'Institut d'Optique de Paris, a spécifié que son expérience pouvait être la plus décisive possible, si elle répondait à certains critères.
Elle doit avoir une excellente source de particules afin d'avoir un temps d'expérience court, et une violation plus nette des inégalités de Bell.
Elle doit mettre en évidence des corrélations de mesure dues à des effets quantiques (influence instantanée) et non à un effet classique.
Le schéma expérimental doit être le plus proche possible du schéma utilisé par J. Bell, afin que l'accord entre les résultats mesurés et prédits soient les plus significatifs possibles.
La source utilisée est une cascade atomique d'atomes de calcium, excitée à l'aide d'un laser krypton, pour libérer des photons par paires corrélées dans des états de polarisation opposés. Les inégalités de Bell permettent d'établir une courbe théorique du nombre de corrélations ente états, et celle obtenue par A. Aspect se trouve en adéquation d'établir quantitativement et qualitativement cette violation, mais avec l'implication d'un hypothétique signal de coordination qui se déplace deux fois plus vite que la vitesse de la lumière. La qualité technique de cette expérience, le soin apporté pour éviter les artefacts expérimentaux, ont largement convaincu la communauté scientifique internationale de la réalité de la violation de l'inégalité de Bell par la physique quantique, et donc de la réalité de la non-localité quantique. Décrire cette expérience a interpellé l'auteur de cet article à se souvenir d'une occasion de rencontre avec le physicien français Kessler du Collège de France à la fin de l'année 1994, qui fut un ami proche d'A. Aspect. Parmi les sujets de discussion entamés avec lui, cette fameuse expérience et ce signal hypothétique, et qu'à ce titre et selon Kessler, Aspect était à cette époque parmi les plus favoris au Prix Nobel. Sur un ton calme et serein sentant recul, sagesse et humilité, Kessler a bien souligné verbalement que « mon ami Alain Aspect est parfaitement nobélisable, il n'y a aucune raison pour qu'il ne le soit pas ». Et depuis, beaucoup d'eau a coulé sous les ponts.
En 1998, l'expérience de Genève a testé des corrélations entre deux détecteurs distants de 30 km, en utilisant le réseau suisse de télécommunication par fibre optique, a montré une nette violation des inégalités de Bell avec l'hypothétique signal de coordination qui arrivait à 10 millions de fois la vitesse de la lumière (c'est un autre sujet de la physique exotique qui est ouvert pour discussion).
Une grande question reste tout de même posée, et qui revient souvent à l'esprit, c'est comment tous les objets décrits par la physique classique (projectile, voiture, fusée, planète etc.) qui, étant formés à l'origine d'atomes et de particules bien décrits par la physique quantique, qui, elle, n'arrive pas à décrire ces objets ? Les tentatives en ce sens ont posé de nombreux problèmes dès le départ et pendant très longtemps. C'est la théorie de la décohérence quantique qui est à ce jour l'une des tentatives les plus satisfaisantes bien qu'elle ne traite pas la totalité des problèmes.
Le problème majeur est que la physique quantique admet des états superposés, absolument inconnus à un niveau macroscopique décrit par la physique classique. De même, cette théorie quantique tient compte de cette non-observabilité des états superposés quantiques en stipulant que tout acte d'observation provoque un effondrement de la fonction d'onde, et sélectionne instantanément un et un seul état parmi l'ensemble des états possibles. Cela donne lieu à une contradiction mathématique entre le postulat de réduction du paquet d'onde avec celui de l'équation d'évolution. Tel est le problème principalement traité par la décohérence, qui s'attaque au problème de la disparition des états superposés au niveau macroscopique. Son objectif est de montrer que cette contradiction n'a pas lieu d'être et que c'est plutôt une compatibilité.
En effet selon cette théorie, chaque éventualité d'un état superposé interagit avec son environnement, et on peut démontrer mathématiquement que chaque interaction déphase les fonctions d'ondes les unes par rapport aux autres jusqu'à devenir orthogonales et de produit scalaire nul. Seuls restent observables les états correspondant aux états observables macroscopiquement, par exemple dans le cas du Chat de Schrِdinger mort ou bien vivant. De plus, la théorie de la décohérence prévoit qu'un certain temps est nécessaire pour que les déphasages s'accumulent et finissent par rendre négligeable la probabilité des états superposés.
Toutes les étapes, depuis le paradoxe EPR jusqu'au Qubit, se trouvent dans la seule et même expérience CQED (Quantum ElectroDynamics) de S. Haroche, améliorée par étapes pendant plus de quinze ans. A commencer d'abord par la réalisation d'un atome de Rydberg, d'un système quantique intriqué (existant au préalable dans l'expérience d'Aspect pour deux particules non massives), d'une Cavité CQED, d'une spectroscopie atomique RIS (Resonance ionisation spectroscopy) à l'aide de l'interféromètre de Ramsey et une spectroscopie micro-onde à l'aide d'un interféromètre Perrot-Fabry à miroirs circulaires et supraconducteurs pour disperser les modes très hautes fréquences de 51 GHZs, et dissiper/transformer en maser les modes basses fréquences. L'ensemble de cette instrumentation plongé dans une station cryogénique de 0.6 °K, est réglé de façon à avoir un minimum de décohérence quantique possible.
Un atome de Rydberg est un atome très excité dans lequel l'électron externe se trouve dans un niveau d'énergie élevé, très proche de l'ionisation. Les atomes de Rydberg ressemblent beaucoup aux atomes d'hydrogène car l'électron excité est dans une orbite si éloignée qu'il se trouve bien au-delà des orbites des autres électrons. Un atome de numéro atomique Z possède un électron très éloigné du cœur de charge +e comme l'atome d'hydrogène, et n'importe quel atome peut devenir un atome de Rydberg. Ce sont des atomes très gros jusqu'à 100 000 fois plus gros que les atomes normaux. Bien qu'ils soient dans un état excité, leur temps de vie est étonnamment très long, plus d'un million de fois le temps de vie des atomes normaux. Les atomes de Rydberg, ont donc des durées de vie trop longues, presque infinies. L'atome de Rydberg choisi par S. Haroche et son équipe est l'atome de rubidium entre les niveaux, excité indexé par le nombre quantique principal n entre les 51 et 50. Ce qui porte son volume presque à 1500 fois le volume initial. La plaque d'émission de Ramsey focalise ledit atome sur la cavité QED et une fois introduit, il subit l'oscillation de Rabi comme effet de couplage avec la cavité même en absence de photons. Son état est un état quantique intriqué, car c'est une combinaison linéaire des deux états associés aux deux niveaux 50/51qui sont l'équivalent des états mort/vivant du chat de Schrِdinger. C'est la première réalisation pratique de la métaphore chat de Schrِdinger avec des particules massives.
Ceci donne à cet atome une dimension micrométrique et au même temps la propriété de dispersion et donc posséder un indice de réfraction. Lui permettre de se corréler avec le photon émis dans cette cavité par processus Starck, donne lieu à un déphasage par rapport à la fréquence de Rabi. Ce déphasage est transformé en amplitude mesurable qui permet au photon d'être déterminé en intensité et donc en nombre avec la probabilité d'être dans l'état 50 ou 51. Un atome corrélé au photon est en fait une entité de taille mésoscopique définie sur toute la longueur de corrélation, constitue un QuBit, l'unité de mémoire pour le futur calculateur quantique, avec une durée de vie, c'est-à-dire une durée de mémoire infinie. Une chaîne de plusieurs centaines d'atomes de rubidium donne une chaine de taille macroscopique située au-delà du millimétrique. C'est donc une chaine accessible à notre échelle, qui peut être le siège de multiQuBits et donc d'un transfert de grandes quantités d'informations.
Une première lecture des principaux articles publiés par S. Haroche et D. Wineland nous a été un impératif incontournable, pour rendre compte de la valeur et de l'immensité de l'effort accompli au milieu d'une communauté scientifique et d'une intelligentsia de haut rang. Précisons tout de même, que nous n'avions eu accès à toute cette abondante littérature, que grâce à l'aide apportée par les organismes scientifiques internationaux. A ce sujet, nous avons bénéficié des bons services de l'AIP (American Institute of Physics), de l'APS (American Physical Society) et de l'OSA (Optical Society of America), qui mettent à notre disposition chaque année tous les travaux des Prix Nobel de physique depuis quelques années, ainsi qu'un courrier hebdomadaire portant sur tous les travaux de recherches récemment publiés dans leurs organes. C'est grâce à ces services qui nous sont rendus, que l'aboutissement à concrétiser cet article a eu lieu, qui va certainement être suivi d'autres articles.
* Professeur et directeur de Laboratoire de recherche en physique Université Mohammed 1er Oujda
</div>
2013 2013 2013
Matrix - The continuous development
Sujets similaires
» Le Prix Nobel de physique de 2012 comme : prolongement historique de la théorie
» les cours et les exercice de physique de la premiers années 1
» Élément binaire représenté par une état physique
» Théorie de la liaison d'un ligand à son récepteur
» Le paradigme du Cours comme oeuvre 2013
» les cours et les exercice de physique de la premiers années 1
» Élément binaire représenté par une état physique
» Théorie de la liaison d'un ligand à son récepteur
» Le paradigme du Cours comme oeuvre 2013
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum