Menu
Gratuitement
Inscription
maison  /  Psychologie/ Problèmes non résolus. Problèmes de physique

Problèmes non résolus. Problèmes de physique

La science et la technologie ne sont-elles pas la même chose ? Non, ils sont différents.

Bien que la technologie qui détermine culture moderne, se développe grâce à la compréhension scientifique de l’Univers, la technologie et la science sont guidées par des motivations différentes. Examinons les principales différences entre la science et la technologie. Si la science est motivée par le désir d’une personne de connaître et de comprendre l’Univers, alors les innovations techniques sont provoquées par le désir des individus de modifier leurs conditions d’existence afin de se nourrir eux-mêmes, d’aider les autres et, souvent, de commettre des violences à des fins personnelles.

Les gens s’engagent souvent à la fois dans la science « pure » et appliquée, mais en science, il est possible de mener des recherches fondamentales sans se soucier du résultat final. Le Premier ministre britannique William Gladstone a un jour fait remarquer à Michael Faraday son découvertes fondamentales, qui a lié l’électricité et le magnétisme : « Tout cela est très intéressant, mais à quoi ça sert ? » Faraday a répondu : « Monsieur, je ne sais pas, mais un jour vous en bénéficierez. » Près de la moitié de la richesse actuelle des pays développés provient du lien entre l’électricité et le magnétisme.


Avant réalisations scientifiques devenir la propriété de la technologie, il faut prendre en compte des considérations supplémentaires : quel type de dispositif est-il possible de développer, qu'est-ce qu'il est permis de construire (question essentiellement liée au domaine de l'éthique). L'éthique appartient à un domaine complètement différent de l'activité mentale humaine : les sciences humaines. La principale différence entre les sciences et les sciences humaines est l’objectivité. Les sciences naturelles s’efforcent d’étudier le comportement de l’Univers de la manière la plus objective possible, alors que les sciences humaines n’ont pas un tel objectif ni une telle exigence. Pour paraphraser les mots de l'écrivaine irlandaise du XIXe siècle Margaret Wolfe Hungerford, nous pouvons dire : « La beauté [et la vérité, et la justice, et la noblesse, et...] est perçue différemment par chacun. »

La science est loin d’être monolithique. Sciences naturelles occupé à apprendre comment environnement, et les gens eux-mêmes, car ils sont fonctionnellement similaires aux autres formes de vie. Et les sciences humaines étudient le comportement rationnel (émotionnel) des gens et leurs attitudes, dont ils ont besoin pour les interactions sociales, politiques et économiques. En figue. 1.1 présente graphiquement ces relations.

Même si une présentation aussi harmonieuse contribue à la compréhension des liens existants, la réalité s’avère toujours beaucoup plus compliquée. L’éthique aide à déterminer les éléments sur lesquels enquêter, les méthodes et techniques de recherche à utiliser et les expériences inacceptables car elles constituent une menace pour le bien-être humain. L'économie politique et la science politique jouent également un rôle énorme, puisque la science ne peut étudier que ce que la culture tend à encourager comme instruments de production, travail ou quoi que ce soit de politiquement acceptable.


Riz. 1.1. Domaines d'activité mentale

Comment fonctionne la science

Le succès de la science dans l’étude de l’Univers repose sur des observations et des idées. Ce type d'échange est appelé méthode scientifique (Fig. 1.2).


Riz. 1.2. Méthode scientifique

Lors de l'observation, un phénomène particulier est perçu par les sens avec ou sans instruments. Si dans les sciences naturelles, les observations portent sur de nombreux objets similaires (par exemple, des atomes de carbone), alors les sciences humaines traitent d'un plus petit nombre de sujets différents (par exemple, des personnes, voire de vrais jumeaux).

Après avoir collecté des données, notre esprit, essayant de les organiser, commence à construire des images ou des explications. C'est l'œuvre de la pensée humaine. Cette étape est appelée étape de génération d’hypothèses. La construction d'une hypothèse générale basée sur les observations obtenues est réalisée par inférence inductive, qui contient une généralisation et est donc considérée comme le type d'inférence le moins fiable. Et peu importe la manière dont ils tentent de construire artificiellement des conclusions, dans le cadre de la méthode scientifique, ce type d'activité est limité, car aux étapes ultérieures, l'hypothèse se heurte à la réalité.

Souvent, une hypothèse est formulée en tout ou en partie dans un langage différent du langage courant, le langage des mathématiques. Acquérir des compétences mathématiques demande beaucoup d’efforts, sinon ceux qui ignorent les mathématiques devront traduire les concepts mathématiques dans le langage courant pour expliquer des hypothèses scientifiques. Malheureusement, le sens de l’hypothèse peut être considérablement affecté.

Une fois construite, une hypothèse peut être utilisée pour prédire certains événements qui devraient se produire si l'hypothèse est vraie. Une telle prédiction découle d’une hypothèse par un raisonnement déductif. Par exemple, la deuxième loi de Newton stipule que F = ma. Si m est égal à 3 unités de masse et a est égal à 5 ​​unités d'accélération, alors F doit être égal à 15 unités de force. Effectuer des calculs mathématiques à ce stade peut être entrepris par machines informatiques, travaillant sur la base de la méthode déductive.

L’étape suivante consiste à mener une expérience pour savoir si la prédiction faite à l’étape précédente est confirmée. Certaines expériences sont assez faciles à réaliser, mais le plus souvent elles sont extrêmement difficiles. Même après avoir construit des équipements scientifiques complexes et coûteux pour produire des données de grande valeur, il peut souvent être difficile de trouver l’argent et la patience nécessaires pour traiter et donner un sens à la vaste gamme de données. Les sciences naturelles ont l'avantage de pouvoir isoler la matière étudiée, alors que les sciences humaines et sociales doivent composer avec de nombreuses variables dépendant des différents points de vue (biais) de nombreuses personnes.

Une fois les expériences terminées, leurs résultats sont comparés aux prédictions. Puisque l'hypothèse est générale et que les données expérimentales sont spécifiques, le résultat, lorsque l'expérience est en accord avec la prédiction, ne prouve pas l'hypothèse, mais la confirme seulement. Cependant, si le résultat de l’expérience ne correspond pas à la prédiction, un certain côté de l’hypothèse s’avère faux. Cette caractéristique de la méthode scientifique, appelée falsifiabilité (falsifiabilité), impose une certaine exigence stricte aux hypothèses. Comme le disait Albert Einstein : « Aucune expérimentation ne peut prouver une théorie ; mais une seule expérience suffit pour le réfuter.

Une hypothèse qui s’avère fausse doit être révisée d’une manière ou d’une autre, c’est-à-dire légèrement modifiée, entièrement retravaillée ou complètement rejetée. Il peut être extrêmement difficile de décider quels changements sont appropriés. Les hypothèses révisées devront à nouveau suivre le même chemin, et soit elles survivront, soit elles seront abandonnées au cours de nouvelles comparaisons entre prédiction et expérience.

Un autre aspect de la méthode scientifique qui ne permet pas de s’égarer est la reproduction. Tout observateur disposant d’une formation et d’un équipement appropriés devrait être capable de répéter les expériences ou les prédictions et d’obtenir des résultats comparables. En d’autres termes, la science se caractérise par une double vérification constante. Par exemple, une équipe de scientifiques du Laboratoire national du nom. L'Université Lawrence de Californie, à Berkeley, a tenté de produire un nouvel élément chimique en tirant un puissant faisceau d'ions krypton sur une cible en plomb, puis en étudiant les substances résultantes. En 1999, des scientifiques ont annoncé la synthèse d'un élément avec numéro de série 118.

La synthèse d'un nouvel élément est toujours un événement important. Dans ce cas, sa synthèse pourrait confirmer les idées dominantes sur la stabilité des éléments lourds. Cependant, des scientifiques d'autres laboratoires de la Société pour l'étude des ions lourds (Darmstadt, Allemagne), du Grand accélérateur d'ions lourds d'État de l'Université de Cayenne (France) et du Laboratoire de physique atomique de l'Institut de physique et de chimie Riken ( Japon) n'ont pas pu répéter la synthèse de l'élément 118. L'équipe élargie du laboratoire de Berkeley a répété l'expérience, mais elle n'a pas non plus réussi à reproduire les résultats obtenus précédemment. Berkeley a revérifié les données expérimentales originales à l'aide d'un programme avec un code modifié et n'a pas pu confirmer la présence de l'élément 118. Ils ont dû retirer leur candidature. Ce cas montre que la recherche scientifique est sans fin.

Parfois, parallèlement aux expériences, des hypothèses sont également revérifiées. En février 2001, le Laboratoire National de Brookhaven à New York a rapporté une expérience dans laquelle le moment magnétique d'un muon (comme l'électron d'une particule chargée négativement, mais beaucoup plus lourd) dépasse légèrement la valeur prédite par le modèle standard de la physique des particules (pour plus sur ce modèle, voir chapitre .2). Et comme les hypothèses du modèle standard concernant de nombreuses autres propriétés des particules concordaient très bien avec les données expérimentales, une telle divergence concernant l’amplitude du moment magnétique du muon détruisait la base du modèle standard.

La prédiction du moment magnétique du muon est le résultat de calculs complexes et longs effectués indépendamment par des scientifiques du Japon et de New York en 1995. En novembre 2001, ces calculs ont été répétés physiciens français, qui ont découvert un signe négatif erroné dans l'un des termes de l'équation et ont publié leurs résultats sur Internet. En conséquence, le groupe Brookhaven a revérifié ses propres calculs, reconnu l'erreur et publié les résultats corrigés. En conséquence, il a été possible de réduire l’écart entre les prévisions et les données expérimentales. Le Modèle Standard devra une nouvelle fois résister aux épreuves que lui préparent les recherches scientifiques en cours.

La méthode scientifique en action

Examinons étape par étape un exemple classique de la méthode scientifique à l'œuvre.

Observation

Observation. J. J. Thomson, directeur du laboratoire Cavendish (1884-1919) en Angleterre, a étudié le comportement d'un faisceau lumineux dans un tube cathodique (le prototype du récepteur de télévision CRT moderne). Puisque le faisceau : 1) était dévié vers des plaques électriques chargées positivement et 2) lorsqu'il les frappait, il provoquait des éclairs de lumière, il s'est avéré qu'il était constitué de particules chargées négativement - des électrons, comme les appelait le physicien irlandais du 19e siècle George Fitzgerald. ses remarques sur l'expérience Thomson. (Nommez l’électron comme unité charge électrique suggéré par un autre physicien irlandais, George Stoney.)

Hypothèse

Hypothèse. Puisque les atomes n’ont aucune charge (neutre) et que Thomson a découvert des particules chargées négativement à l’intérieur d’eux, il a conclu que l’atome devait également avoir une charge positive. En 1903, Thomson a créé une théorie selon laquelle la charge positive est « étalée » dans tout l'atome et les électrons chargés négativement sont disséminés au milieu de la substance chargée positivement. Cette image rappelait un plat traditionnel britannique, c’est pourquoi elle a été appelée le « modèle atomique de pudding aux raisins Thomson ».

Prédiction

Prédiction. Ernst Rutherford était un expert des particules chargées positivement appelées particules α. Au début du XXe siècle, il prédisait que tirer ces particules sur des atomes constitués d’une charge positive rare et « maculée », selon le modèle du « pudding aux raisins » de Thomson, rappellerait le fait de lancer des boules de billard dans le brouillard. La plupart des balles passeront directement à travers et seule une fraction d’entre elles s’écartera d’une quantité extrêmement faible.

Expérience

Expérience. En 1909, Hans Geiger et Ernest Marsden ont commencé à tirer des particules alpha sur une fine feuille d'or. Les résultats se sont avérés complètement différents de ceux attendus. Certaines particules alpha ont été déviées en grande quantité et certaines ont même rebondi. Rutherford a noté que c'était "aussi improbable que si vous tiriez un obus de quinze livres sur du papier de soie et que l'obus rebondissait et vous tuait".

Répéter

Répéter. Le modèle atomique de Thomson a été remplacé par le modèle de Rutherford, dans le sens de système solaire, où la charge positive était concentrée dans un noyau relativement petit au milieu de l'atome, et les électrons (comme les planètes) étaient sur des orbites circulaires autour du noyau (comme le Soleil). Au XXe siècle, après de nouvelles prédictions et expériences, le modèle de Rutherford de l’atome sous la forme du système solaire a été remplacé par d’autres modèles. Lorsque les données expérimentales ne concordaient pas avec les prédictions d’une hypothèse existante, celle-ci devait être révisée.

Ainsi, l'interprétation des lois de la mécanique découvertes par Isaac Newton et les hypothèses classiques de James Clerk Maxwell sur la nature de l'électricité et du magnétisme ont conduit à une hypothèse tentante sur la nature absolue de l'espace et du temps. La théorie de la relativité d'Einstein a remplacé ces quantités absolues pratiques par des quantités relatives contre-intuitives et philosophiquement peu fiables. La principale raison qui nous a obligé à admettre l’existence de la relativité était la concordance des prédictions de cette théorie avec les données expérimentales.

Malgré la prédominance d'une idée particulière, la renommée des partisans d'une théorie, le manque d'attrait d'une nouvelle théorie, les opinions politiques des auteurs d'idées ou la difficulté de les comprendre, une chose reste inébranlable : la suprématie des données de l'expérience. .

Des difficultés

La méthode scientifique présentée ici est une reconstruction rationnelle du fonctionnement réel de la science. Une telle idéalisation diffère naturellement de ce qui se produit réellement, par exemple avec un grand nombre de participants, lorsque les étapes sont séparées par de longues périodes de temps. Et pourtant, nous avons l’occasion de voir beaucoup de choses.

Il y a un certain nombre de difficultés à considérer ici. Tout d’abord, la science formule plusieurs hypothèses philosophiques avec lesquelles certains philosophes ne sont pas d’accord. La science admet l'existence d'une réalité objective qui ne dépend pas de l'observateur. Sinon, sans une telle objectivité, les mêmes observations et expériences répétées dans différents laboratoires pourraient différer, et il serait alors impossible pour les chercheurs de se mettre d’accord. De plus, la science croit que l’Univers est régi par certaines lois immuables et que l’homme est capable de comprendre ces lois. Si les lois régissant l’Univers sont incertaines ou si nous sommes incapables de les comprendre, tous les efforts de la science pour émettre des hypothèses seront vains. Mais comme notre compréhension de ces lois semble s’améliorer et que les prédictions qui en découlent sont confirmées par des expériences, de telles hypothèses semblent tout à fait raisonnables.

Les hypothèses scientifiques sont construites en relation avec des événements qui se produisent sur une longue période, y compris des événements passés qui ne peuvent être vérifiés par l'expérience. Habituellement, cette difficulté est évitée en avançant des hypothèses croisées issues de diverses branches de la connaissance à la recherche d'un accord mutuel. Par exemple, l’âge estimé de la Terre à plus de 4 milliards d’années est étayé par des calculs astronomiques de la teneur en hélium à l’intérieur du Soleil, des mesures géologiques de la tectonique des plaques et des observations biologiques de la croissance des dépôts coralliens.

Pour expliquer un certain événement - surtout en l'absence de données expérimentales sur certains phénomènes (par exemple, sur un passé lointain qui n'avait pas de chroniqueurs, ou sur des coins inaccessibles de l'Univers) - plusieurs hypothèses peuvent être avancées à la fois. La situation délicate, où de nombreuses hypothèses ne peuvent être confirmées expérimentalement, est résolue sur la base du principe de frugalité scientifique [lat. principium parsimoniae], appelé rasoir d'Occam.


Le philosophe anglais Guillaume d'Ockham (1285-1349) était un moine franciscain qui utilisait souvent la maxime médiévale dans ses écrits philosophiques : « Les entités ne doivent pas être multipliées inutilement ». L'armée a donné à cette règle une expression plus simple et plus directe : KISS : Keep It Simple, Stupid, ou Keep It Short and Sweet. En tout cas, elle sert de guide en l’absence de données expérimentales. S'il existe plusieurs hypothèses et qu'il est impossible de mener des expériences permettant de choisir entre elles, on s'arrête à la plus simple.

L'expérience prouve la justesse de cette approche. Par exemple, en 1971, la sonde spatiale de mesure des rayons X Uhur a détecté de manière inattendue un puissant flux de rayons X provenant de la constellation du Cygne, désignée Cygnus X -1. Il n'y avait aucune source visible de ce rayonnement, qui semblait provenir d'un vide proche de l'étoile supergéante HDE 226868, à 8 mille années-lumière de la Terre. (Pour une explication de la désignation HDE, voir : Liste d'idées, 14. Compilation de catalogues d'étoiles.) Selon une hypothèse, le coupable était le compagnon invisible de l'étoile HDE 226868. Ce fantôme a attiré la masse que HDE 226868 a expulsée de Lorsque ce matériau a été attiré par le satellite invisible, sa température a augmenté à un point tel que le satellite a commencé à émettre des ondes radio. Une autre hypothèse faisait appel à au moins deux corps invisibles interagissant avec HDE 226868 : une étoile ordinaire, invisible en raison de sa décoloration, et une étoile à neutrons en rotation (le noyau d'une étoile qui, après avoir terminé sa vie, s'effondre en une boule composée de neutrons. ), appelé pulsar. Ces trois corps, localisés d'une certaine manière, pourraient être les sources de l'émission radio observée.

L'éloignement de Cygnus X -1 ne permet pas une vérification directe, d'autant plus que ce rayonnement lui-même s'est produit il y a 8 mille ans. Alors laquelle des hypothèses concurrentes est vraie ? Selon les données expérimentales, les deux. Mais, en utilisant le rasoir d'Occam, nous voyons qu'une explication plus simple, limitée à un seul corps céleste, est ici la mieux adaptée. Ainsi, Cygnus X-1 est devenu le premier exemple enregistré d'un satellite invisible connu sous le nom de trou noir. Par la suite, dans des circonstances similaires, plus de 30 objets de ce type ont été découverts.

Le principe du rasoir d'Occam n'intervient qu'en l'absence de confirmation expérimentale. Sa tâche est d'aider à sélectionner l'hypothèse la plus simple et cohérente avec les observations. Cependant, cela ne peut exclure d’autres hypothèses étayées par des données encore plus complexes. Après tout, elle n'est pas capable de remplacer la confirmation reçue par l'expérience. Naturellement, le rasoir d'Occam est inférieur aux données expérimentales détaillées, mais parfois c'est la seule chose dont nous disposons.

Problèmes non résolus

Maintenant, après avoir compris comment la science s'inscrit dans l'activité mentale humaine et comment elle fonctionne, nous constatons que son ouverture nous permet d'aller de différentes manières vers une compréhension plus complète de l'Univers. De nouveaux phénomènes surgissent sur lesquels les hypothèses restent muettes, et pour les briser, de nouvelles hypothèses sont avancées, complètes des idées fraîches. Sur cette base, les prédictions sont affinées. De nouveaux équipements expérimentaux sont en cours de création. Toute cette activité conduit à l'émergence d'hypothèses qui reflètent plus fidèlement le comportement de l'Univers. Et tout cela dans un seul objectif : comprendre l’Univers dans toute sa diversité.

Les hypothèses scientifiques peuvent être considérées comme des réponses aux questions sur la structure de l’Univers. Notre tâche est d'étudier les cinq plus grands problèmes qui n'ont pas été résolus à ce jour. Le mot « majeur » fait référence aux problèmes qui ont des conséquences considérables, qui sont les plus importants pour notre compréhension ultérieure ou qui ont les conséquences les plus importantes. valeur pratique. Nous nous limiterons à un problème majeur non résolu, pris dans chacune des cinq branches des sciences naturelles, et tenterons de décrire comment leur solution peut être accélérée. Bien sûr, les sciences de l'homme et de la société, les sciences humaines et appliquées, ont leurs propres problèmes non résolus (par exemple, la nature de la conscience), mais cette question dépasse le cadre de ce livre.

Voici les plus grands problèmes non résolus que nous avons sélectionnés dans chacune des cinq branches des sciences naturelles et ce qui a guidé notre choix.

La physique. Les propriétés de la masse corporelle liées au mouvement (vitesse, accélération et couple, ainsi que énergie cinétique et potentielle) nous sont bien connues. Et la nature de la masse elle-même, inhérente à de nombreuses particules élémentaires de l'Univers, mais pas à toutes, n'est pas claire pour nous. Le plus gros problème non résolu en physique est le suivant : pourquoi certaines particules ont-elles une masse [au repos] et d’autres non ?

Chimie. L'étude des réactions chimiques des corps vivants et non vivants est menée à grande échelle et avec beaucoup de succès. Le plus grand problème non résolu en chimie est le suivant : quel type de réactions chimiques a poussé les atomes à former les premiers êtres vivants ?

La biologie. Récemment, il a été possible d’obtenir le génome, ou schéma moléculaire, de nombreux organismes vivants. Les génomes contiennent des informations sur les protéines communes, ou protéomes, des organismes vivants. Le plus grand problème non résolu en biologie est le suivant : quelle est la structure et le but du protéome ?

Géologie. Le modèle de la tectonique des plaques décrit de manière satisfaisante les conséquences de l'interaction des coquilles supérieures de la Terre. Mais les phénomènes atmosphériques, en particulier les types de temps, semblent défier les tentatives visant à créer des modèles conduisant à des prévisions fiables. Le plus grand problème non résolu en géologie est le suivant : est-il possible de prévoir avec précision le temps à long terme ?

Astronomie. Bien que de nombreux aspects de la structure générale de l’Univers soient bien connus, il reste encore beaucoup de choses floues quant à son évolution. La récente découverte selon laquelle le taux d’expansion de l’Univers s’accélère conduit à penser qu’il s’étendra indéfiniment. Le plus grand problème non résolu en astronomie est le suivant : pourquoi l’univers s’étend-il à un rythme toujours plus rapide ?

Beaucoup d'autres questions intéressantes, liés à ces tâches, surgiront en cours de route, et certains d'entre eux pourraient eux-mêmes devenir les plus importants à l'avenir. À ce sujet nous parlons de dans la dernière section du livre : « Liste d’idées ».

William Harvey, médecin anglais du XVIIe siècle qui détermina la nature de la circulation sanguine, disait : « Tout ce que nous connaissons est infiniment petit comparé à ce que nous ne connaissons pas encore » [Étude anatomique du mouvement du cœur et du sang chez les animaux , 1628]. Et cela est vrai, car les questions se multiplient plus vite qu’il n’est possible d’y répondre. À mesure que l’espace éclairé par la science s’agrandit, l’obscurité qui l’entoure augmente également.

Remarques:

Le plus ancien laboratoire national porte son nom. Lawrence Berkeley, fondée par l'inventeur du cyclotron Ernst Orlando Lawrence en 1931. Exploité par le Département américain de l'énergie

Le rasoir d'Occam - le principe selon lequel tout doit être recherché pour l'interprétation la plus simple ; Le plus souvent, ce principe est formulé ainsi : « Il ne faut pas affirmer inutilement beaucoup de choses » (pluralitas non est ponenda sine necessitate) ou : « Ce qui peut être expliqué avec moins ne doit pas être exprimé avec plus » (frustra fit per plura quod potest fieri per pauciora ). La formulation habituellement citée par les historiens, « Les entités ne doivent pas être multipliées sans nécessité » (entia non sunt multiplicandasine necessitate), ne se retrouve pas dans les écrits d'Occam (ce sont les mots de Durand de Saint-Pourcin, vers 1270-1334, un historien français). théologien et moine dominicain ; une expression très similaire apparaît pour la première fois chez le moine franciscain français Odo Rigo, vers 1205-1275).

  • La physique
    • Traduction

    Notre modèle standard de particules élémentaires et d'interactions est récemment devenu aussi complet qu'on pourrait le souhaiter. Chaque particule élémentaire - sous toutes ses formes possibles - a été créée en laboratoire, mesurée et ses propriétés déterminées. Les plus durables, le quark top, l'antiquark, le neutrino et l'antineutrino tau, et enfin le boson de Higgs, ont été victimes de nos capacités.

    Et ce dernier - le boson de Higgs - a également résolu un vieux problème de physique : nous pouvons enfin démontrer d'où les particules élémentaires tirent leur masse !

    Tout cela est cool, mais la science ne s'arrête pas lorsque vous avez fini de résoudre cette énigme. Au contraire, cela soulève des questions importantes, et l’une d’entre elles est « et ensuite ? Concernant le Modèle Standard, on peut dire qu’on ne sait pas encore tout. Et pour la plupart des physiciens, l'une des questions est particulièrement importante : pour la décrire, considérons d'abord prochaine propriété Modèle standard.


    D'une part, faibles, électromagnétiques et forte interaction peuvent être très importants, en fonction de leurs énergies et des distances auxquelles se produit l’interaction. Mais ce n’est pas le cas de la gravité.

    Nous pouvons prendre deux particules élémentaires quelconques – de n’importe quelle masse et sujettes à n’importe quelle interaction – et découvrir que la gravité est 40 ordres de grandeur plus faible que toute autre force de l’Univers. Cela signifie que la force de gravité est 10 à 40 fois plus faible que les trois forces restantes. Par exemple, bien qu’ils ne soient pas fondamentaux, si vous prenez deux protons et les séparez d’un mètre, la répulsion électromagnétique entre eux sera 10 à 40 fois plus forte que l’attraction gravitationnelle. Ou, en d’autres termes, nous devons augmenter la force de gravité d’un facteur de 10 000 000 000 000 000 000 000 000 000 000 000 000 000 pour égaler n’importe quelle autre force.

    Dans ce cas, vous ne pouvez pas simplement augmenter la masse d'un proton de 10 à 20 fois pour que la gravité les rassemble, surmontant la force électromagnétique.

    Au lieu de cela, pour que des réactions comme celle illustrée ci-dessus se produisent spontanément lorsque des protons surmontent leur répulsion électromagnétique, il faut rassembler 10 56 protons. Ce n’est qu’en s’unissant et en succombant à la force de gravité qu’ils pourront vaincre l’électromagnétisme. Il s'avère que 10,56 protons constituent la masse minimale possible d'une étoile.

    Ceci est une description du fonctionnement de l’Univers – mais nous ne savons pas pourquoi il fonctionne ainsi. Pourquoi la gravité est-elle tellement plus faible que les autres interactions ? Pourquoi la « charge gravitationnelle » (c'est-à-dire la masse) est-elle tellement plus faible que l'électricité ou la couleur, voire même faible ?

    C’est le problème de la hiérarchie et, pour de nombreuses raisons, le plus grand problème non résolu de la physique. Nous ne connaissons pas la réponse, mais nous ne pouvons pas dire que nous sommes complètement ignorants. En théorie, nous disposons de quelques bonnes idées pour trouver une solution et d’un outil pour prouver leur exactitude.

    Jusqu’à présent, le Grand collisionneur de hadrons – le collisionneur le plus énergétique – a atteint des niveaux d’énergie sans précédent en laboratoire, collecté des quantités de données et reconstruit ce qui s’est passé aux points de collision. Cela inclut la création de nouvelles particules jusqu'ici inédites (comme le boson de Higgs) et l'apparition d'anciennes particules bien connues du modèle standard (quarks, leptons, bosons de jauge). Il est également capable, si elles existent, de produire toutes autres particules non incluses dans le Modèle Standard.

    À ma connaissance, il existe quatre manières possibles, c'est-à-dire quatre bonnes idées, de résoudre le problème de la hiérarchie. La bonne nouvelle, c’est que si la nature en a choisi un, le LHC le trouvera ! (Et sinon, la recherche continuera).

    Hormis le boson de Higgs, découvert il y a plusieurs années, aucune nouvelle particule fondamentale n'a été découverte au LHC. (De plus, aucune nouvelle particule candidate intrigante n’est observée). Et pourtant, la particule trouvée correspondait pleinement à la description du Modèle Standard ; aucune indication statistiquement significative d'une nouvelle physique n'a été observée. Pas aux bosons de Higgs composites, pas à de multiples particules de Higgs, pas à des désintégrations non standard, rien de tout cela.

    Mais maintenant, nous commençons à obtenir des données provenant d'énergies encore plus élevées, deux fois les précédentes, jusqu'à 13-14 TeV, pour trouver autre chose. Et quelles sont les solutions possibles et raisonnables au problème de la hiérarchie dans ce sens ?

    1) Supersymétrie, ou SUSY. La supersymétrie est une symétrie spéciale qui peut amener les masses normales de toutes particules suffisamment grandes pour que la gravité soit comparable à d'autres influences à s'annuler avec un haut degré de précision. Cette symétrie suggère également que chaque particule du modèle standard a un partenaire superparticulaire et qu'il existe cinq particules de Higgs et leurs cinq superpartenaires. Si une telle symétrie existe, elle doit être brisée, sinon les superpartenaires auraient les mêmes masses que les particules ordinaires et auraient été découverts depuis longtemps.

    Si SUSY existe à une échelle permettant de résoudre le problème de hiérarchie, alors le LHC, atteignant des énergies de 14 TeV, devrait trouver au moins un superpartenaire, ainsi qu'une deuxième particule de Higgs. Sinon, l’existence de superpartenaires très lourds entraînera elle-même un autre problème de hiérarchie qui n’aura pas de bonne solution. (Il est intéressant de noter que l’absence de particules SUSY à toutes les énergies réfuterait la théorie des cordes, puisque la supersymétrie est condition nécessaire pour les théories des cordes contenant le modèle standard des particules élémentaires).

    Voici la première solution possible au problème de hiérarchie, qui a actuellement il n'y a pas de preuve.

    Il est possible de créer de minuscules supports surrefroidis remplis de cristaux piézoélectriques (qui produisent de l'électricité lorsqu'ils sont déformés), avec des distances entre eux. Cette technologie nous permet d'imposer des limites de 5 à 10 microns sur les « grandes » mesures. En d’autres termes, la gravité fonctionne selon les prédictions de la relativité générale à des échelles bien inférieures au millimètre. Ainsi, s’il existe de grandes dimensions supplémentaires, elles se situent à des niveaux d’énergie inaccessibles au LHC et, plus important encore, ne résolvent pas le problème de la hiérarchie.

    Bien sûr, pour le problème de la hiérarchie, il peut y avoir une solution complètement différente que l’on ne trouve pas sur les collisionneurs modernes, voire aucune solution du tout ; cela pourrait bien être une propriété de la nature sans aucune explication. Mais la science ne progressera pas sans essayer, et c’est ce que ces idées et ces quêtes tentent de faire : faire progresser notre connaissance de l’univers. Et comme toujours, avec le début de la deuxième exploitation du LHC, j’ai hâte de voir ce qui pourrait y apparaître, outre le boson de Higgs déjà découvert !

    Mots clés:

    • la gravité
    • interactions fondamentales
    • réservoir
    Ajouter des balises

    Les ondes gravitationnelles seront-elles détectées ?

    Certains observatoires recherchent des preuves de l'existence de ondes gravitationnelles. Si de telles ondes peuvent être trouvées, ces fluctuations dans la structure espace-temps elle-même indiqueront des cataclysmes se produisant dans l'Univers, tels que des explosions de supernova, des collisions de trous noirs et peut-être des événements encore inconnus. Pour plus de détails, voir l'article de W. Waite Gibbs « Spacetime Ripple ».

    Quelle est la durée de vie d'un proton ?

    Certaines théories qui ne correspondent pas au modèle standard (voir chapitre 2) prédisent la désintégration des protons, et plusieurs détecteurs ont été construits pour détecter une telle désintégration. Bien que la désintégration elle-même n'ait pas encore été observée, la limite inférieure de la demi-vie du proton est estimée à 10,32 ans (ce qui dépasse largement l'âge de l'Univers). Avec l’avènement de capteurs plus sensibles, il sera peut-être possible de détecter la désintégration du proton ou la limite inférieure de sa demi-vie devra être repoussée.

    Les supraconducteurs sont-ils possibles à haute température ?

    La supraconductivité se produit lorsque la résistance électrique d'un métal tombe à zéro. Dans de telles conditions, le courant électrique établi dans le conducteur circule sans pertes, caractéristiques du courant ordinaire lorsqu'il traverse des conducteurs tels qu'un fil de cuivre. Le phénomène de supraconductivité a été observé pour la première fois à des températures extrêmement basses (juste au-dessus du zéro absolu, - 273 °C). En 1986, des scientifiques parviennent à fabriquer des matériaux supraconducteurs au point d’ébullition de l’azote liquide (-196 °C), ce qui permet déjà la création de produits industriels. Le mécanisme de ce phénomène n’est pas encore entièrement compris, mais les chercheurs tentent d’obtenir une supraconductivité à température ambiante, ce qui réduirait les pertes d’électricité.

    Problèmes de chimie

    Comment la composition d’une molécule détermine-t-elle son apparence ?

    La connaissance de la structure orbitale des atomes dans des molécules simples permet de déterminer assez facilement l'apparence d'une molécule. Cependant, des études théoriques sur l’apparition de molécules complexes, notamment biologiquement importantes, n’ont pas encore été réalisées. Un aspect de ce problème est le repliement des protéines, abordé dans la liste d'idées 8.

    Quels sont les processus chimiques du cancer ?

    Les facteurs biologiques tels que l'hérédité et l'environnement jouent probablement un rôle important dans le développement du cancer. En connaissant les réactions chimiques qui se produisent dans les cellules cancéreuses, il pourrait être possible de créer des molécules pour interrompre ces réactions et développer une résistance au cancer dans les cellules.

    Comment les molécules communiquent-elles dans les cellules vivantes ?

    Pour la notification, des molécules de forme souhaitée sont utilisées dans les cellules, lorsque le message est transmis par « ajustement » sous forme de complémentarité. Les molécules de protéines sont les plus importantes, donc la façon dont elles sont repliées détermine leur apparence [conformation]. Par conséquent, une connaissance plus approfondie du repliement des protéines aidera à résoudre le problème de la communication.

    Où le vieillissement cellulaire est-il déterminé au niveau moléculaire ?

    Un autre problème biochimique du vieillissement peut être lié à l'ADN et aux protéines impliquées dans la « réparation » de l'ADN qui est coupé lors de réplications répétées (voir : Liste d'idées, 9. Technologies génétiques).

    Problèmes de biologie

    Comment un organisme entier se développe-t-il à partir d’un œuf fécondé ?

    Il semble que cette question puisse trouver une réponse dès que le problème principal du Chap. 4 : quelle est la structure et la fonction du protéome ? Bien sûr, chaque organisme a ses propres caractéristiques dans la structure des protéines et leur fonction, mais vous pourrez certainement trouver beaucoup de points communs.

    Quelles sont les causes des extinctions massives ?

    Au cours des 500 derniers millions d’années, l’extinction complète d’espèces s’est produite cinq fois. La science continue d’en rechercher les raisons. La dernière extinction, survenue il y a 65 millions d'années, au tournant du Crétacé et du Tertiaire, est associée à la disparition des dinosaures. Comme David Rop pose la question dans son livre Extinction : Était-ce des gènes ou de la chance ? (Voir : Sources pour une étude approfondie), l'extinction de la plupart des organismes vivant à cette époque était-elle causée par des facteurs génétiques ou une sorte de cataclysme ? Selon l'hypothèse avancée par le père et le fils Luis et Walter Alvarez, une énorme météorite (environ 10 km de diamètre) serait tombée sur Terre il y a 65 millions d'années. L'impact qu'il a provoqué a soulevé d'énormes nuages ​​de poussière, qui ont interféré avec la photosynthèse, ce qui a entraîné la mort de nombreuses plantes, et donc des animaux qui composaient la même chaîne alimentaire, jusqu'aux dinosaures énormes mais vulnérables. La confirmation de cette hypothèse est un grand cratère de météorite découvert dans le sud du golfe du Mexique en 1993. Est-il possible que les extinctions précédentes soient le résultat de collisions similaires ? Les recherches et les débats se poursuivent.

    Les dinosaures étaient-ils des animaux à sang chaud ou à sang froid ?

    Le professeur d'anatomie britannique Richard Owen a inventé le terme « dinosaure » (qui signifie « terribles lézards ») en 1841, lorsque seulement trois squelettes incomplets ont été découverts. L'artiste animalier et sculpteur britannique Benjamin Waterhouse Hawkins a commencé à recréer l'apparence d'animaux disparus. Comme les premiers spécimens trouvés avaient des dents semblables à celles d'iguanes, ses animaux empaillés ressemblaient à d'énormes iguanes, ce qui a fait beaucoup de bruit parmi les visiteurs.

    Mais les lézards sont des reptiles à sang froid, et c'est pourquoi ils ont d'abord décidé que les dinosaures étaient comme ça. Plusieurs scientifiques ont alors suggéré qu’au moins certains dinosaures étaient des animaux à sang chaud. Il n'y avait aucune preuve jusqu'en 2000, lorsqu'un cœur de dinosaure fossilisé a été découvert dans le Dakota du Sud. Ayant une structure à quatre chambres, ce cœur confirme l'hypothèse selon laquelle les dinosaures étaient à sang chaud, puisque le cœur du lézard n'a que trois chambres. Cependant, davantage de preuves sont nécessaires pour convaincre le reste du monde de cette hypothèse.

    Quelle est la base de la conscience humaine ?

    En tant que sujet d’étude en sciences humaines, cette question dépasse largement le cadre de ce livre, mais nombre de nos collègues scientifiques se lancent dans son étude.

    Comme on peut s’y attendre, il existe plusieurs approches pour interpréter la conscience humaine. Les partisans du réductionnisme soutiennent que le cerveau est un énorme ensemble de molécules en interaction et que nous finirons par découvrir les règles de leur fonctionnement (voir l'article de Crick et Koch « The Problem of Consciousness » [In the World of Science. 1992. No. 11-12]).

    Une autre approche remonte à la mécanique quantique. Selon lui, nous ne sommes pas en mesure de comprendre la non-linéarité et l'imprévisibilité du cerveau tant que nous n'avons pas compris les liens entre les niveaux atomique et macroscopique du comportement de la matière (voir le livre de Roger Penrose The New Mind of the King: On Computers, La Pensée et les Lois de la Physique [M., 2003] ; ou encore Les Ombres de l'Esprit : À la Recherche de la Science de la Conscience [M., 2003]).

    Selon une approche de longue date, l’esprit humain possède une composante mystique inaccessible à l’explication scientifique, de sorte que la science ne peut pas du tout comprendre la conscience humaine.

    Au vu des travaux récents de Stephen Wolfram sur la création d'images ordonnées en appliquant de manière répétée les mêmes règles simples (voir chapitre 5), il n'est pas surprenant que cette approche soit utilisée en relation avec la conscience humaine ; Cela vous donnera un autre point de vue.

    Problèmes de géologie

    Qu’est-ce qui provoque de grands changements dans le climat de la Terre, comme un réchauffement généralisé et des périodes glaciaires ?

    Les périodes glaciaires, caractéristiques de la Terre au cours des 35 derniers millions d'années, se sont produites environ tous les 100 000 ans. Les glaciers avancent et reculent dans toute la zone tempérée du nord, laissant des monuments sous forme de rivières, de lacs et de mers. Il y a 30 millions d'années, lorsque les dinosaures parcouraient la Terre, le climat était beaucoup plus chaud qu'aujourd'hui, de sorte que les arbres poussaient même près du pôle Nord. Comme déjà mentionné au Chap. 5, température la surface de la terre dépend de l’état d’équilibre des énergies entrantes et sortantes. De nombreux facteurs influencent cet équilibre, notamment l'énergie émise par le Soleil, les débris dans l'espace que traverse la Terre, le rayonnement entrant, les changements dans l'orbite terrestre, les changements atmosphériques et les variations de la quantité d'énergie émise par la Terre (albédo).

    C’est dans cette direction que sont menées les recherches, compte tenu notamment de la récente polémique sur l’effet de serre. Il existe de nombreuses théories, mais il n’existe toujours pas de véritable compréhension de ce qui se passe.

    Est-il possible de prédire les éruptions volcaniques ou les tremblements de terre ?

    Certaines éruptions volcaniques sont prévisibles, comme la récente éruption (1991) du mont Pinatubo aux Philippines, mais d'autres sont inaccessibles aux moyens modernes - prenant encore les volcanologues par surprise (par exemple, l'éruption du mont St. Helens, Washington, en mai 18, 1980). De nombreux facteurs provoquent des éruptions volcaniques. Il n’existe pas d’approche théorique unique qui serait valable pour tous les volcans.

    Les tremblements de terre sont encore plus difficiles à prévoir que les éruptions volcaniques. Certains géologues de renom doutent même de la possibilité de faire une prévision fiable (voir : Liste d'idées, 13. Prédiction des tremblements de terre).

    Que se passe-t-il au cœur de la Terre ?

    Les deux coquilles inférieures de la Terre, le noyau externe et interne, nous sont inaccessibles en raison de leur emplacement profond et haute pression, ce qui exclut les mesures directes. Les géologues obtiennent toutes les informations sur les noyaux terrestres sur la base d'observations de la surface et de la densité globale, de la composition et des propriétés magnétiques, ainsi que d'études utilisant des ondes sismiques. De plus, l’étude des météorites ferreuses est utile en raison de la similitude de leur processus de formation avec celui de la Terre. Des résultats récents d'ondes sismiques ont révélé différentes vitesses d'onde dans les directions nord-sud et est-ouest, indiquant un noyau interne solide en couches.

    Problèmes d'astronomie

    Sommes nous seuls dans l'univers?

    Malgré l’absence de toute preuve expérimentale de l’existence d’une vie extraterrestre, il existe de nombreuses théories à ce sujet, ainsi que des tentatives pour détecter des nouvelles de civilisations lointaines.

    Comment évoluent les galaxies ?

    Comme déjà mentionné au Chap. 6, Edwin Hubble a classé toutes les galaxies connues selon leur apparence. Malgré la description minutieuse de leur état actuel, cette approche ne permet pas de comprendre l’évolution des galaxies. Plusieurs théories ont été avancées pour expliquer la formation des galaxies spirales, elliptiques et irrégulières. Ces théories sont basées sur la physique des nuages ​​​​de gaz antérieurs aux galaxies. Les simulations sur supercalculateur ont permis de comprendre quelque chose, mais n’ont pas encore abouti à une théorie unifiée de la formation des galaxies. La création d’une telle théorie nécessite des recherches supplémentaires.

    Les planètes semblables à la Terre sont-elles courantes ?

    Les modèles mathématiques prédisent l’existence de planètes semblables à la Terre, allant de quelques à plusieurs millions dans la Voie lactée. De puissants télescopes ont découvert plus de 70 planètes en dehors de notre système solaire, mais la plupart ont la taille de Jupiter ou plus. À mesure que les télescopes s’amélioreront, il sera possible de trouver d’autres planètes, ce qui permettra de déterminer quel modèle mathématique correspond le mieux à la réalité.

    Quelle est la source des sursauts de rayons Y ?

    Environ une fois par jour, les rayons gamma les plus puissants sont observés, qui sont souvent plus puissants que tous les autres pris ensemble (les rayons gamma sont similaires à la lumière visible, mais ils ont une fréquence et une énergie beaucoup plus élevées). Le phénomène a été enregistré pour la première fois à la fin des années 1960, mais n’a été signalé que dans les années 1970, car tous les capteurs étaient utilisés pour contrôler le respect de l’interdiction des essais nucléaires.

    Au début, les astronomes pensaient que les sources de ces émissions se trouvaient dans la Voie Lactée. La forte intensité du rayonnement a conduit à des spéculations sur la proximité de ses sources. Mais au fur et à mesure que les données s’accumulaient, il est devenu évident que ces émissions provenaient de partout et n’étaient pas concentrées dans le plan de la Voie lactée.

    Détectée en 1997 par le télescope spatial Hubble, l'éruption indiquait qu'elle provenait de la périphérie d'une faible galaxie située à plusieurs milliards d'années-lumière. La source étant éloignée du centre de la galaxie, il est peu probable qu’il s’agisse d’un trou noir. On pense que ces sursauts de rayonnement gamma proviennent d’étoiles ordinaires contenues dans le disque galactique, probablement dues à la collision d’étoiles à neutrons ou d’autres corps célestes encore inconnus de nous.

    Pourquoi Pluton est-elle si différente de toutes les autres planètes ?

    Les quatre planètes intérieures – Mercure, Vénus, Terre et Mars – sont relativement petites, rocheuses et proches du Soleil. Les quatre planètes extérieures – Jupiter, Saturne, Uranus et Neptune – sont grandes, gazeuses et éloignées du Soleil. Parlons maintenant de Pluton. Pluton est petite (comme les planètes intérieures) et éloignée du Soleil (comme les planètes extérieures). En ce sens, Pluton sort de la série générale. Il orbite autour du Soleil près d'une région appelée ceinture de Kuiper, qui contient de nombreux corps similaires à Pluton (certains astronomes les appellent Plutino).

    Récemment, plusieurs musées ont décidé de priver Pluton de son statut planétaire. Jusqu'à ce que davantage de corps de la ceinture de Kuiper puissent être cartographiés, le débat sur le statut de Pluton se poursuivra.

    Quel âge a l’univers ?

    L'âge de l'Univers peut être estimé de plusieurs manières. Une façon est l'âge éléments chimiques dans la Voie Lactée est estimée à partir de la désintégration radioactive d'éléments dont la demi-vie est connue, sur la base de l'hypothèse que les éléments sont synthétisés (à l'intérieur des supernovae grandes étoiles) à vitesse constante. Par cette méthode L’âge de l’Univers est estimé à 14,5 ± 3 milliards d’années.

    Une autre méthode consiste à estimer l’âge des amas d’étoiles sur la base de certaines hypothèses concernant le comportement et la suppression des amas. L'âge des amas les plus anciens est estimé à 11,5 ± 1,3 milliards d'années et pour l'Univers à 11-14 milliards.

    L'âge de l'Univers, déterminé par le taux de son expansion et la distance aux objets les plus éloignés, est de 13 à 14 milliards d'années. La découverte récente de l'expansion accélérée de l'Univers (voir chapitre 6) rend cette quantité plus incertaine.

    Une autre méthode a été récemment développée. Télescope spatial Hubble, travaillant à ses limites, a mesuré les températures des plus anciennes naines blanches de l'amas globulaire M4. (Cette méthode est similaire à l'estimation du temps écoulé après un incendie éteint par la température des cendres.) Il s'est avéré que l'âge des naines blanches les plus anciennes est de 12 à 13 milliards d'années. En supposant que les premières étoiles se soient formées au plus tôt 1 milliard d'années après le Big Bang, l'âge de l'Univers est de 13 à 14 milliards d'années et l'estimation sert de vérification des indicateurs obtenus par d'autres méthodes.

    En février 2003, des données ont été obtenues de la sonde d'anisotropie micro-ondes Wilkinson (WMAP), qui ont permis de calculer avec la plus grande précision l'âge de l'Univers : 13,7 ± 0,2 milliards d'années.

    Existe-t-il plusieurs univers ?

    Selon un solution possible discuté au Chap. 6 du problème de l'expansion accélérée de l'Univers, nous obtenons de nombreux univers habitant des « branes » distinctes (membranes multidimensionnelles). Malgré tout son caractère spéculatif, cette idée laisse une large place à toutes sortes de spéculations. Plus d’informations sur plusieurs univers peuvent être trouvées dans le livre Our Cosmic Abode de Martin Rees.

    Quand la Terre rencontrera-t-elle pour la prochaine fois un astéroïde ?

    Des débris spatiaux frappent constamment la Terre. Et c’est pourquoi il est si important de savoir quelle taille les corps célestes tombent sur nous et à quelle fréquence. Des corps d'un diamètre de 1 m pénètrent dans l'atmosphère terrestre plusieurs fois par mois. Ils explosent souvent haute altitude, libérant une énergie égale à l’explosion d’une petite bombe atomique. Environ une fois par siècle, un corps de 100 m de diamètre nous arrive, laissant derrière lui un grand souvenir (un impact notable). Après l'explosion d'un corps céleste similaire en 1908 au-dessus de la taïga sibérienne, dans le bassin de la rivière Podkamennaya Tunguska [territoire de Krasnoïarsk], des arbres ont été abattus sur une superficie d'environ 2 000 km 2.

    L’impact d’un corps céleste d’un kilomètre de diamètre, se produisant une fois tous les millions d’années, pourrait provoquer d’énormes destructions et même provoquer un changement climatique. Une collision avec un corps céleste de 10 km de diamètre a probablement entraîné l'extinction des dinosaures au tournant du Crétacé et du Tertiaire, il y a 65 millions d'années. Même si un corps de cette taille n’apparaît qu’une fois tous les 100 millions d’années, des mesures sont déjà prises sur Terre pour éviter d’être pris au dépourvu. Les projets Near-Earth Objects (NEOs) et Near-Earth Asteroid Observations (NEAT) sont en cours de développement, selon lesquels d'ici 2010 il sera possible de suivre 90 % des astéroïdes d'un diamètre supérieur à 1 km, nombre total dont, selon diverses estimations, se situe entre 500 et 1 000. Un autre programme, Spacewatch, géré par l'Université de l'Arizona, surveille le ciel à la recherche d'éventuels candidats à un impact sur la Terre.

    Pour des informations plus détaillées, veuillez visiter les nœuds du World Wide Web : http://neat.jpl. NASA. gov, http://neo.jpl.nasa.gov et http://apacewatch.Ipl. Arizona. éduquer/

    Que s'est-il passé avant le Big Bang ?

    Puisque le temps et l’espace commencent avec le Big Bang, la notion d’« avant » n’a aucun sens. Cela équivaut à demander ce qui se trouve au nord du pôle Nord. Ou, comme le dirait l’écrivaine américaine Gertrude Stein, il n’y a pas de « alors ». Mais ces difficultés n’arrêtent pas les théoriciens. Peut-être qu’avant le « big bang », l’époque était imaginaire ; il n'y avait probablement rien du tout, et l'Univers est né d'une fluctuation du vide ; soit il y a eu une collision avec une autre « brane » (voir la question posée plus haut sur les univers multiples). De telles théories sont difficiles à trouver une confirmation expérimentale, car l'énorme température de la boule de feu d'origine n'a permis la création d'aucune formation atomique ou subatomique qui pourrait exister avant le début de l'expansion de l'Univers.

    Remarques:

    Le rasoir d'Occam - le principe selon lequel tout doit être recherché pour l'interprétation la plus simple ; Le plus souvent, ce principe est formulé ainsi : « Il ne faut pas affirmer inutilement beaucoup de choses » (pluralitas non est ponenda sine necessitate) ou : « Ce qui peut être expliqué avec moins ne doit pas être exprimé avec plus » (frustra fit per plura quod potest fieri per pauciora ). La formulation habituellement citée par les historiens, « Les entités ne doivent pas être multipliées sans nécessité » (entia non sunt multiplicandasine necessitate), ne se retrouve pas dans les écrits d'Occam (ce sont les mots de Durand de Saint-Pourcin, vers 1270-1334, un historien français). théologien et moine dominicain ; une expression très similaire apparaît pour la première fois chez le moine franciscain français Odo Rigo, vers 1205-1275).

    Ce qu'on appelle les tunnels topologiques. Les autres noms de ces objets hypothétiques sont les ponts Einstein-Rosen (1909-1995), Podolsky (1896-1966) et le col Schwarzschild (1873-1916). Les tunnels peuvent relier à la fois des régions individuelles et arbitrairement éloignées de l'espace de notre Univers, et des régions avec différents moments du début de son inflation. Actuellement, une discussion est en cours sur la faisabilité des tunnels, leur perméabilité et leur évolution.

    Kuiper Gerard Peter (1905-1973) – astronome néerlandais et américain. Le satellite d'Uranus a été découvert - Miranda (1948), le satellite de Neptune - Néréide (1949), gaz carbonique dans l'atmosphère de Mars, l'atmosphère de Titan, la lune de Saturne. Compilé plusieurs atlas détaillés de photographies de la Lune. Identifié de nombreuses étoiles doubles et naines blanches.

    Un satellite nommé en mémoire de l'initiateur de cette expérience, l'astrophysicien David T. Wilkinson. Poids 840 kg. Byt a été lancé en juin 2001 sur une orbite circumsolaire, jusqu'au point de Lagrange L2 (à 1,5 million de km de la Terre), où les forces gravitationnelles de la Terre et du Soleil sont égales entre elles et où les conditions d'observation précise du ciel entier sont réunies. sont les plus favorables. Du Soleil, de la Terre et de la Lune (les sources de bruit thermique les plus proches), l'équipement de réception est protégé par un grand écran rond, sur le côté éclairé duquel se trouvent panneaux solaires. Cette orientation est maintenue tout au long du vol. Deux miroirs récepteurs d'une superficie de 1,4 x 1,6 m, placés dos à dos, scrutent le ciel en s'éloignant de l'axe d'orientation. Grâce à la rotation de la gare autour de son propre axe, 30 % du trafic est visible chaque jour. sphère céleste. La résolution de WMAP est 30 fois supérieure à celle du précédent satellite COBE (Cosmic Background Explorer), lancé par la NASA en 1989. La taille de la cellule mesurée dans le ciel est de 0,2x0,2°, ce qui a immédiatement affecté la précision des cartes célestes. La sensibilité de l'équipement de réception a également augmenté plusieurs fois. Par exemple, un ensemble de données COBE obtenues sur 4 ans sont collectées en seulement 10 jours dans la nouvelle expérience.

    Pendant plusieurs secondes, une boule de feu brillante et éblouissante a été observée se déplaçant dans le ciel du sud-est au nord-ouest. Sur la trajectoire de la voiture, visible sur une vaste zone Sibérie orientale(dans un rayon allant jusqu'à 800 km), une puissante traînée de poussière a persisté pendant plusieurs heures. Après les phénomènes lumineux, une explosion a été entendue à une distance de plus de 1000 km. Dans de nombreux villages, des secousses du sol et des bâtiments, semblables à un tremblement de terre, ont été ressenties, les vitres des fenêtres se brisaient, les ustensiles ménagers tombaient des étagères, les objets suspendus se balançaient, etc. De nombreuses personnes, ainsi que des animaux domestiques, ont été renversés. leurs pieds par la vague d'air. Sismographes à Irkoutsk et dans plusieurs endroits Europe de l'Ouest a enregistré une onde sismique. L'onde de souffle a été enregistrée sur des barogrammes obtenus dans de nombreuses stations météorologiques sibériennes, à Saint-Pétersbourg et dans plusieurs stations météorologiques en Grande-Bretagne. Ces phénomènes s'expliquent le plus complètement par l'hypothèse des comètes, selon laquelle ils auraient été provoqués par une invasion de l'atmosphère terrestre une petite comète se déplaçant à la vitesse cosmique. Selon les idées modernes, les comètes sont constituées d'eau gelée et de divers gaz mélangés de nickel, de fer et de substances rocheuses. G.I. Petrov a déterminé en 1975 que le « corps de Toungouska » était très meuble et n'avait pas plus de 10 fois la densité de l'air à la surface de la Terre. Il s'agissait d'une motte de neige meuble d'un rayon de 300 m et d'une densité inférieure à 0,01 g/cm. A une altitude d'environ 10 km, le corps s'est transformé en gaz qui s'est dissipé dans l'atmosphère, ce qui explique les nuits inhabituellement claires en Sibérie occidentale et en Europe après cet événement. L’onde de choc tombée au sol a provoqué la chute de la forêt.

    Gertrude Stein (1874-1946) - écrivaine américaine, théoricienne de la littérature !. Moderniste. Formellement, la prose expérimentale (« The Making of Americans », 1906-1908, publié en 1925) dans le courant dominant de la littérature ! "flux de la conscience". Livre biographique "L'Autobiographie d'Alice B. Toklas" (1933). Stein possède l'expression « génération perdue"(en russe : Stein G. Autobiographie d'Alice B. Toklas. Saint-Pétersbourg, 2000 ; Stein G. Autobiographie d'Alice B. Toklas. Picasso. Conférences en Amérique. M., 2001).

    Un indice des mots il n'y a pas là, là du chapitre 4 ! la nouvelle de 1936 (publiée en 1937) « La biographie de tout le monde », une suite de son célèbre roman « L'autobiographie d'Alice B. Toklas ».

    Au cours des 200 dernières années, la science a pu répondre à un très grand nombre de questions concernant la nature et les lois auxquelles l'humanité est soumise. Aujourd'hui, les gens explorent les galaxies et les atomes, créent des machines, résolveurs de problèmes qu'une personne ne peut pas résoudre seule. Cependant, il reste encore de nombreuses questions auxquelles les scientifiques ne peuvent pas encore répondre. Ces problèmes non résolus de la science moderne incitent les scientifiques à se gratter la tête avec perplexité et à déployer des efforts encore plus colossaux pour trouver le plus rapidement possible des réponses à leurs questions.

    Tout le monde connaît la découverte de la gravité par Newton. Après cette découverte, le monde a considérablement changé. Les recherches d'Albert Einstein, le grand physicien, ont permis de porter un regard neuf et plus profond sur ce phénomène. Grâce à la théorie de la gravité d'Einstein, l'humanité a pu comprendre même les phénomènes associés à la courbure de la lumière. Cependant, les scientifiques ne sont toujours pas parvenus à comprendre le travail des particules subatomiques, dont le principe de fonctionnement repose sur les lois de la mécanique quantique.

    Il existe aujourd’hui plusieurs théories sur la gravité quantique, mais jusqu’à présent aucune d’entre elles n’a été prouvée expérimentalement. Bien entendu, il est peu probable que la résolution de ce problème ait un impact significatif sur la vie quotidienne humain, mais cela aidera peut-être à percer les mystères associés aux trous noirs et au voyage dans le temps.

    Expansion de l'Univers

    Malgré le fait que les scientifiques en savent actuellement beaucoup sur la structure générale de l'Univers, il reste encore un grand nombre de questions liées à son développement, par exemple, de quoi est fait l'Univers.

    Relativement récemment, les scientifiques ont découvert que notre Univers est en constante expansion et que le taux de son expansion augmente. Cela leur a donné l’idée que l’expansion de l’Univers serait peut-être infinie. Cela soulève la question : qu’est-ce qui cause l’expansion de l’Univers et pourquoi son taux d’expansion augmente-t-il ?

    Vidéo sur l'un des problèmes scientifiques non résolus : l'expansion de l'Univers

    Turbulence en milieu liquide

    Tout le monde sait probablement que la turbulence est une secousse soudaine pendant le vol. Cependant, en mécanique des fluides, ce mot a une signification complètement différente. L'apparition de turbulences en vol s'explique par la rencontre de deux corps aériens se déplaçant à des vitesses différentes. Mais il est encore assez difficile pour les physiciens d’expliquer le phénomène de turbulence en milieu liquide. Les mathématiciens sont également assez perplexes face à ce problème.

    La turbulence dans un environnement liquide entoure une personne partout. Un exemple classique d’une telle turbulence est celui de l’eau s’écoulant d’un robinet, se désintégrant complètement en particules liquides chaotiques qui diffèrent du flux général. La turbulence est un phénomène très courant dans la nature et se retrouve dans divers courants océaniques et géophysiques.

    Malgré le grand nombre d'expériences réalisées, à la suite desquelles des données empiriques ont été obtenues, aucune théorie convaincante sur ce qui provoque exactement la turbulence dans les liquides, comment elle est contrôlée et comment il est possible d'ordonner ce chaos n'a pas encore été créée.

    Le processus de vieillissement fait référence à la perturbation et à la perte progressives de fonctions importantes de l’organisme, notamment la capacité de se régénérer et de se reproduire. À mesure que le corps vieillit, il ne peut plus s’adapter aussi bien aux conditions environnementales et est beaucoup moins résistant aux blessures et aux maladies.

    • La science qui étudie les problématiques liées au vieillissement du corps s’appelle la gérontologie.
    • L'utilisation du terme « vieillissement » est possible pour décrire le processus de destruction de tout système non vivant, par exemple le métal, ainsi que pour décrire le processus de vieillissement du corps humain. En outre, les scientifiques n’ont pas encore trouvé de réponses aux questions de savoir pourquoi les plantes vieillissent et quels facteurs déclenchent le programme de vieillissement.

    La première tentative d'explication scientifique d'un processus tel que le vieillissement a été réalisée dans la seconde moitié du XIXe siècle par Weissmann. Il a suggéré que le vieillissement est une propriété résultant de l’évolution. Weisman pensait que les organismes qui ne vieillissent pas ne sont pas seulement inutiles, mais aussi nocifs. Leur mort est nécessaire pour faire place aux jeunes.

    Actuellement, de nombreux scientifiques ont avancé de nombreuses hypothèses sur les causes du vieillissement des organismes, mais jusqu'à présent, toutes les théories ont connu un succès limité.

    Comment survivent les tardigrades ?

    Les tardigrades sont des micro-organismes assez courants dans la nature. Ils habitent toutes les zones climatiques et tous les continents, et peuvent vivre à n’importe quelle altitude et dans toutes les conditions. Leurs extraordinaires capacités de survie déconcertent de nombreux scientifiques. Il est curieux que ces premiers organismes vivants aient réussi à survivre même dans le vide dangereux de l’espace. Ainsi, plusieurs tardigrades ont été mis en orbite, où ils ont été exposés à divers types rayonnement cosmique Cependant, à la fin de l'expérience, presque tous étaient restés indemnes.

    Ces organismes n'ont pas peur du point d'ébullition de l'eau ; ils survivent à des températures légèrement supérieures au zéro absolu. Les tardigrades se sentent normaux à 11 kilomètres de profondeur, dans la fosse des Mariannes, supportant calmement sa pression.

    Les tardigrades ont d’incroyables capacités d’anhydrobiose, c’est-à-dire de séchage. Dans cet état, on observe un ralentissement extrême de leur activité métabolique. Après séchage, cette créature arrête pratiquement son activité métabolique, et après avoir accédé à l'eau, son état d'origine est restauré et le tardigrade continue de vivre comme si de rien n'était.

    L'étude de cette créature promet de donner des résultats intéressants. Si la cryonie devient une réalité, ses applications deviendront incroyables. Ainsi, les scientifiques affirment qu’après avoir percé le secret de la capacité de survie du tardigrade, ils seront en mesure de créer une combinaison spatiale dans laquelle il sera possible d’explorer d’autres planètes et que le stockage de médicaments et de comprimés deviendra possible à température ambiante.

    Astronomie, physique, biologie, géologie, tels sont les domaines dans lesquels travaillent de nombreux scientifiques. Grâce à leurs découvertes, de nouvelles théories incroyables émergent, qui ressemblaient à de la science-fiction il y a quelques décennies à peine et qui pourraient très prochainement permettre de résoudre certains problèmes scientifiques jusqu'ici non résolus.

    Quels problèmes scientifiques non résolus vous intéressent le plus ? Parlez-nous-en dans

    10 problèmes non résolus de la physique moderne
    Nous présentons ci-dessous une liste de problèmes non résolus en physique moderne.

    Certains de ces problèmes sont théoriques. Cela signifie que théories existantes sont incapables d’expliquer certains phénomènes observés ou résultats expérimentaux.

    D'autres problèmes sont expérimentaux, ce qui signifie qu'il est difficile de créer une expérience pour tester une théorie proposée ou pour étudier un phénomène plus en détail.

    Certains de ces problèmes sont étroitement liés. Par exemple, des dimensions supplémentaires ou une supersymétrie peuvent résoudre le problème de la hiérarchie. On pense que la théorie complète de la gravité quantique peut répondre à la plupart de ces questions.

    À quoi ressemblera la fin de l’Univers ?

    La réponse dépend en grande partie de l’énergie noire, qui reste un membre inconnu de l’équation.

    L’énergie sombre est responsable de l’expansion accélérée de l’Univers, mais son origine est un mystère entouré de ténèbres. Si énergie noire constant pendant longtemps, nous risquons de connaître un « grand gel » : l’Univers continuera à s’étendre de plus en plus vite, et éventuellement les galaxies s’éloigneront si loin les unes des autres que le vide actuel de l’espace ressemblera à un jeu d’enfant.


    Si l'énergie sombre augmente, l'expansion deviendra si rapide que l'espace non seulement entre les galaxies augmentera, mais aussi entre les étoiles, c'est-à-dire que les galaxies elles-mêmes seront déchirées ; cette option est appelée le « grand écart ».

    Un autre scénario est que l’énergie noire diminuera et ne pourra plus contrecarrer la gravité, provoquant l’effondrement de l’Univers (« big crunch »).

    Eh bien, le fait est que, quelle que soit la manière dont les événements se déroulent, nous sommes condamnés. Mais avant cela, il reste encore des milliards, voire des milliards d’années, suffisamment pour comprendre comment l’Univers va mourir.

    La gravité quantique

    Malgré des recherches actives, la théorie de la gravité quantique n’a pas encore été construite. La principale difficulté de sa construction réside dans le fait que les deux théories physiques qu’elle tente de relier – la mécanique quantique et la relativité générale (GR) – reposent sur des ensembles de principes différents.

    Donc, mécanique quantique formulé comme une théorie qui décrit l'évolution temporelle des systèmes physiques (par exemple, des atomes ou des particules élémentaires) dans le contexte de l'espace-temps externe.

    Dans la relativité générale, il n'y a pas d'espace-temps externe — c'est lui-même une variable dynamique de la théorie, dépendant des caractéristiques de ceux qui y participent. classique systèmes

    Lors du passage à la gravité quantique, il est au minimum nécessaire de remplacer les systèmes par des systèmes quantiques (c'est-à-dire quantifier). La connexion émergente nécessite une sorte de quantification de la géométrie de l'espace-temps elle-même, et la signification physique d'une telle quantification est absolument floue et il n'y a aucune tentative réussie et cohérente pour la mettre en œuvre.

    Même une tentative de quantification de la théorie classique linéarisée de la gravité (GTR) se heurte à de nombreuses difficultés techniques : la gravité quantique s’avère être une théorie non renormalisable du fait que la constante gravitationnelle est une quantité dimensionnelle.

    La situation est aggravée par le fait que les expériences directes dans le domaine de la gravité quantique, en raison de la faiblesse des interactions gravitationnelles elles-mêmes, ne sont pas disponibles. technologies modernes. À cet égard, dans la recherche de la formulation correcte de la gravité quantique, nous devons nous fier uniquement à des calculs théoriques.

    Le boson de Higgs n’a absolument aucun sens. Pourquoi existe-t-il ?

    Le boson de Higgs explique comment toutes les autres particules acquièrent de la masse, mais il soulève également de nombreuses nouvelles questions. Par exemple, pourquoi le boson de Higgs interagit-il différemment avec toutes les particules ? Ainsi, le quark t interagit avec lui plus fortement que l'électron, c'est pourquoi la masse du premier est bien supérieure à celle du second.

    De plus, le boson de Higgs est la première particule élémentaire à spin nul.

    "Nous avons un domaine complètement nouveau de la physique des particules", explique le scientifique Richard Ruiz, "nous n'avons aucune idée de sa nature".

    Rayonnement de Hawking

    Les trous noirs produisent-ils un rayonnement thermique comme le prédit la théorie ? Ce rayonnement contient-il ou non des informations sur leur structure interne, comme le suggère le calcul original de Hawking ?


    Pourquoi est-il arrivé que l’Univers soit constitué de matière et non d’antimatière ?

    L'antimatière est la même matière : elle a exactement les mêmes propriétés que la substance à partir de laquelle sont constituées les planètes, les étoiles et les galaxies.

    La seule différence est le tarif. Selon les idées modernes, dans l’Univers nouveau-né, il y avait une quantité égale des deux. Peu après Big Bang matière et antimatière annihilées (réagissant avec destruction mutuelle et émergence d'autres particules les unes des autres).

    La question est : comment se fait-il qu’il reste encore une certaine quantité de matière ? Pourquoi la matière a-t-elle réussi et l'antimatière a-t-elle perdu le bras de fer ?

    Pour expliquer cette inégalité, les scientifiques recherchent assidûment des exemples de violations de CP, c'est-à-dire des processus dans lesquels les particules préfèrent se désintégrer pour former de la matière plutôt que de l'antimatière.

    "Tout d'abord, j'aimerais comprendre si les oscillations des neutrinos (la transformation des neutrinos en antineutrinos) diffèrent entre les neutrinos et les antineutrinos", explique Alicia Marino de l'Université du Colorado, qui a partagé la question.  "Rien de tel n'a été observé auparavant, mais nous attendons avec impatience la prochaine génération d'expériences."

    Théorie de tout

    Existe-t-il une théorie qui explique les valeurs de toutes les constantes physiques fondamentales ? Existe-t-il une théorie qui explique pourquoi les lois de la physique sont telles qu’elles sont ?


    Théorie de tout — une théorie physique et mathématique hypothétique unifiée qui décrit tous les interactions fondamentales.

    Initialement, ce terme était utilisé de manière ironique pour désigner diverses théories généralisées. Au fil du temps, le terme s’est imposé dans les vulgarisations de la physique quantique pour désigner une théorie qui unifierait les quatre forces fondamentales de la nature.

    Au cours du XXe siècle, de nombreuses « théories du tout » ont été proposées, mais aucune n'a été testée expérimentalement, ou il existe des difficultés significatives pour établir des tests expérimentaux pour certains des candidats.

    Bonus : Éclair en boule

    Quelle est la nature de ce phénomène ? La foudre en boule est-elle un objet indépendant ou est-elle alimentée par de l’énergie extérieure ? Tous les éclairs en boule sont-ils de la même nature ou existe-t-il des types différents ?


    Éclair en boule — une boule de feu rougeoyante flottant dans les airs, particulièrement rare un phénomène naturel.

    À ce jour, aucune théorie physique unifiée sur l'apparition et l'évolution de ce phénomène n'a été présentée ; il existe également des théories scientifiques qui réduisent le phénomène à des hallucinations.

    Il existe environ 400 théories expliquant le phénomène, mais aucune d'entre elles n'a reçu une reconnaissance absolue dans le milieu universitaire. En laboratoire, des phénomènes similaires mais de courte durée ont été obtenus par plusieurs différentes façons, la question de la nature de la foudre en boule reste donc ouverte. A la fin du XXe siècle, pas un seul stand expérimental n'avait été créé dans lequel ce phénomène naturel serait reproduit artificiellement conformément aux descriptions des témoins oculaires de la foudre en boule.

    Il est largement admis que la foudre en boule est un phénomène d'origine électrique, de nature naturelle, c'est-à-dire qu'elle représente type spécial la foudre, qui existe depuis longtemps et a la forme d'une boule, capable de se déplacer selon une trajectoire imprévisible, surprenant parfois les témoins oculaires.

    Traditionnellement, la fiabilité de nombreux témoignages oculaires de foudre en boule reste mise en doute, notamment :

    • le fait même d'observer au moins un phénomène ;
    • le fait d’observer la foudre en boule, et non un autre phénomène ;
    • détails individuels du phénomène donnés dans un témoignage oculaire.

    Les doutes sur la fiabilité de nombreuses preuves compliquent l'étude du phénomène et créent également le terrain pour l'apparition de divers documents spéculatifs et sensationnels prétendument liés à ce phénomène.

    Basé sur des matériaux provenant de : plusieurs dizaines d'articles de