Chimie

Etude approfondie : dépendance en température des produits cibles

Etude approfondie : dépendance en température des produits cibles


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Fig. 1

Volume, pression, température

On utilise comme garniture des substances liquides dans la plage souhaitée et qui présentent une dilatation proportionnelle à la température. Une échelle peut être fixée au thermomètre sur laquelle la température peut être lue directement.

Exprimé dans une formule, ce qui suit s'applique :


L'augmentation de volume de la substance est proportionnelle à son changement de température :


Mais pourquoi c'est comme ça ?
Pourquoi le volume augmente-t-il avec l'augmentation de la température ?

Connaissances de base:
La température est finalement une mesure de l'énergie cinétique moyenne des particules. Plus les particules se déplacent rapidement, plus la température d'une substance est élevée

En augmentant la vitesse, l'encombrement des particules augmente.

Au niveau des particules, cela conduit à une

Augmentation de la vitesse, augmentation de l'énergie cinétique.

Au niveau de la substance, cela conduit à une

Augmentation de la température, augmentation du volume

Donc si la température de la substance dépend de la vitesse des particules, il doit y avoir une température la plus basse, car il y a aussi une vitesse la plus basse, à savoir l'arrêt absolu, la vitesse zéro.


Quelle est la température la plus basse ?

Elle est de -271,15 °C, mais n'est pratiquement jamais complètement réalisable. Ce creux absolu marque également le zéro absolu les échelle de température absolue , qui est de préférence utilisé en physique et en chimie. L'unité de mesure sur l'échelle de température absolue est celle Kelvin (K) .

Une différence de température de 1°C correspond à une différence de température de 1K.

L'augmentation de volume (& DeltaV) lorsque la température augmente (& DeltaT) est particulièrement nette dans le cas des gaz.


Ce qui suit s'applique ici :

Contrairement aux solides et aux liquides, le volume des gaz est également très fortement influencé par la pression.


Cela semble beaucoup plus clair avec des mots :


Plus la pression est élevée, plus le volume d'un gaz est petit.


Donc les gaz sont compressibles, i. c'est-à-dire qu'ils peuvent être comprimés sous pression. Si vous souhaitez accueillir une grande quantité de gaz dans un récipient aussi petit que possible, vous comprimez le gaz à haute pression. Les bouteilles de gaz sous pression peuvent contenir jusqu'à 50 litres de gaz à une pression allant jusqu'à 300 bars.

Combien de litres d'oxygène peut-on prélever dans une bouteille d'oxygène pleine avec les données ci-dessus à pression normale ?

En outre:
Renseignez-vous sur les unités de pression N/m & sup2, Pa, bar. Quelle est la relation entre les différentes unités ? Quelle est la pression normale dans les différentes unités ?

Diverses bouteilles de gaz sous pression. Les combinaisons de couleurs (bouteille / épaule) marquent différents gaz. gris / blanc signifie B. pour l'oxygène, rouge/rouge pour l'hydrogène.

Fiche de travail Volume, Pression, Température : Télécharger [doc] [793 KB]
Fiche de travail Volume, Pression, Température : Télécharger [pdf] [414 Ko]


Instructions pour le stage de physique de base V 01 18

Le stage de physique de base est destiné à offrir aux étudiants des cours d'ingénieur de l'Université des sciences appliquées d'Aix-la-Chapelle sur le campus de Jülich un accès pratique aux phénomènes fondamentaux de la physique. Avec des expériences de mécanique, de thermodynamique, d'électricité et d'optique / spectroscopie, les lois et concepts théoriques de la physique peuvent être observés expérimentalement dans un large éventail de méthodes de mesure et de quantités différentes et deviennent ainsi de véritables expériences pour les étudiants. L'examen des bases théoriques des expériences et le lien avec l'expérience auto-conduite sont un complément idéal et un approfondissement des autres cours de physique et le stage de base représente donc une partie importante de la formation d'ingénieur.

En plus du contenu purement technique, le stage de base sert également à acquérir des compétences méthodologiques. Cela comprend, d'une part, l'approche analytique et structurée de la planification, de la réalisation et de l'évaluation des expériences. En commençant par l'utilisation réussie d'outils de mesure simples tels que ruban à mesurer, chronomètre, pied à coulisse, vis micrométrique, en passant par la planification préalable méthodiquement judicieuse des étapes de mesure individuelles, la construction et l'utilisation de circuits ou d'appareils de mesure complexes et de processus de mesure à plusieurs étapes, pour la documentation des résultats de mesure, leur évaluation basée sur les modèles physiques nouvellement appris à l'aide de diagrammes et de calculs d'erreurs et la présentation et l'évaluation des résultats dans le cadre de l'évaluation du test écrit, de nombreuses compétences sont acquises et mises en pratique qui sont indispensables pour une étude réussie de l'ingénierie. D'autre part, le travail dans les groupes de test avec une préparation conjointe, un soutien mutuel et une consultation pendant la mise en œuvre des tests et l'élaboration et la discussion des résultats favorise les compétences de communication et de travail en équipe, ainsi que le sens des responsabilités pour les projets communs.

Dans ces trois domaines de compétence, technique, méthodique et personnel, les bases pour traiter les questions techniques et scientifiques de l'environnement de travail moderne des ingénieurs sont posées.

0.1 Préparation et procédure

Avant le début du stage, tous les étudiants participants ont accès à ces instructions dans le cadre de l'inscription et de la discussion préliminaire. Il sert de

0.1 Préparation et procédure 5

En outre, dans la discussion préliminaire, il est fait référence aux règlements de prévention des accidents, qui sont également énumérés dans l'annexe. Dans un stage avec de nombreuses expériences se déroulant en même temps et avec de grands groupes, le respect de ces réglementations et la considération mutuelle entre les participants est très important pour la sécurité. Comme mentionné précédemment, la sécurité de l'expérience est également largement déterminée par une bonne préparation.

La procédure de test bénéficie grandement de l'approche organisée par les deux partenaires de test. Cela comprend l'apport des aides nécessaires (instructions imprimées, feuille de couverture pour le protocole, bloc-notes A4, calculatrice et règle) ainsi que la planification et l'accord sur la façon dont l'expérience doit être réalisée parmi les participants d'un groupe de test basé sur la préparation .

Comme dernière étape pour une participation réussie au stage, il est important de faire attention lors de la documentation des résultats des mesures et de leur évaluation. L'évaluation ne peut être réussie qu'avec un protocole de mesure clairement lisible. Il va de soi que les valeurs mesurées ne sont pas modifiées par la suite ni même inventées. Ceci n'est pas seulement fondamentalement opposé au processus de connaissance qui devrait être intériorisé dans le stage. C'est aussi une tentative de tromperie, qui est punie en ne reconnaissant pas la tentative. Lors de l'évaluation des données de mesure, en plus de l'observation des informations contenues dans les instructions, une structure bonne et uniforme est utile. A cet effet, une liste de sections utiles est donnée en annexe sous Structure de l'évaluation du test. La partie la plus importante ici est l'évaluation des résultats de mesure et la discussion qui s'ensuit. Dans de nombreuses expériences, la précision de mesure des résultats doit être déterminée à l'aide, entre autres, d'un calcul d'erreur. Les méthodes requises pour cela se trouvent dans l'annexe sous Méthodes de calcul de l'erreur. Dans la discussion, il est particulièrement important de comparer la valeur mesurée obtenue, y compris sa tolérance d'erreur, avec les valeurs correspondantes de la littérature. La question à laquelle il faut répondre est de savoir si la valeur mesurée est en accord avec les valeurs de la littérature en dehors de la tolérance d'erreur, ou sinon, quelles autres sources d'erreur qui n'ont pas été prises en compte peuvent avoir contribué à l'erreur de mesure.

1 mécanique

1.1 densité

1.1.1 But de l'expérimentation

Le but de l'expérience est la détermination exacte de la densité de trois solides constitués de matériaux différents, ainsi que d'un liquide inconnu ou d'un granulé.

1.1.2 Théorie

Si un corps a une masse et un volume 푉퐾, sa densité est définie par le rapport des deux,

⇔ 푚퐾 = 푉퐾.

La densité détermine le poids d'un corps pour un volume donné. Alors qu'une simple pesée suffit pour déterminer la masse, la détermination exacte du volume est plus difficile, surtout avec des corps irréguliers. Pour ce faire, on utilise la force de flottabilité 퐹퐴 que subit un corps lorsqu'il est immergé dans un liquide. Il contrebalance le poids 퐹퐺 = 푚 퐾푔 et réduit ainsi le poids du corps. Selon le principe d'Archimède, la force de poussée est égale au poids du volume de liquide déplacé,

En immersion totale, ce volume de liquide déplacé correspond au volume corporel à déterminer, 푉퐾 = 푉 퐹푙. Si la densité du liquide 퐹퐿 est connue (on utilise principalement de l'eau distillée), le poids inférieur dû à la flottabilité est déterminé par pesée dans le liquide

′ = - 퐹푔 퐴 = - 푚 퐹푙 ⟺ 푚 퐹푙 = 푚퐾 - 푚퐾 ′,

de là la masse du liquide déplacé et donc le volume recherché. Il se pose pour la densité inconnue du corps

푙휌 퐹푙 =
- 퐹푙. (1.1-1)

Afin de déterminer la densité d'un liquide inconnu, un corps de densité connue est utilisé en sens inverse. Vous le pesez dans l'air et

a éventuellement une température différente !) se trouve dans le tableau C.1-1 en annexe. La densité inconnue peut alors être déterminée selon l'équation (1.1-1). Répétez chaque mesure cinq fois au total afin de pouvoir spécifier une valeur moyenne et une précision de mesure pour les résultats obtenus.

1.1.5 Expérience : Densité d'un liquide et d'un granulé

Utilisez un cylindre métallique de densité prédéterminée pour déterminer la densité de tout liquide inconnu donné, ou utilisez le pycnomètre pour déterminer la densité des granules. Assurez-vous qu'il n'y a pas de bulles d'air sur les corps immergés ou dans le pycnomètre, car celles-ci faussent la mesure.

1.1.6 Évaluation

Déterminez la valeur moyenne pour chacune de vos mesures, la précision de mesure associée grâce au calcul d'erreur et comparez vos résultats avec les valeurs de la littérature.

1.2 élasticité

1.2.1 But de l'expérimentation

Le but de l'expérience est de déterminer le module d'élasticité d'un fil métallique à partir d'une mesure de déformation à l'aide de poids et de déterminer le module de cisaillement d'un second matériau à l'aide du moment directionnel d'un pendule rotatif.

1.2.2 Théorie

1.2.2.1 Déformation élastique

Un corps se déforme sous l'effet de forces extérieures opposées. Si cette déformation remonte complètement après le relief, on parle du comportement élastique du corps. En revanche, si les forces agissent trop fortement, une déformation plastique permanente se produit. Chaque déformation élastique est linéaire dans les forces agissantes pour une certaine plage et se compose des trois types de base de compression, d'allongement et de cisaillement.

Fig.1.2-1 Types de base de déformation élastique

Avec une compression totale, les forces agissant sur le corps agissent uniformément et perpendiculairement à sa surface. Cela signifie qu'une pression (ou une tension) globale agit sur le corps. Le changement de volume relatif résultant par pression appliquée passe par le module de compression

Cisaillement allongement compression

le moment de redressement dépend de la longueur 퐿 et du rayon 푟 du fil ainsi que du module de cisaillement 퐺 du matériau du fil,


Énergie - bases scientifiques

Le terme « énergie » est utilisé très naturellement dans la vie de tous les jours, mais pas toujours dans le bon contexte d'un point de vue scientifique.
Les médias de ce dossier médiatique sont destinés à aider à transmettre les définitions et les principes scientifiques naturels les plus importants sur le thème de l'« énergie », basés sur les programmes d'études pour les grades 7-10 et pour les matières de physique, chimie et biologie. En termes de contenu, le spectre va de la définition pure des termes (travail, énergie et performance) aux lois de conservation de l'énergie et de la thermodynamique.
Le pack média comprend des diagrammes, des graphiques d'ensemble, des simulations, des informations factuelles, des fiches d'exercices, des instructions d'expérimentation, un film, un lexique en ligne et un guide pour l'enseignant contenant des informations techniques de base.

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2014. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Photo:
Coup de foudre entre la terre et les nuages ​​- un bel exemple d'énergie électrique dans la nature.

Les courants d'air ascendants génèrent de l'électricité à partir d'énergie mécanique par friction sous forme de nuages ​​chargés électriquement jusqu'à une charge d'environ 20 As (ampère seconde). Si la différence de tension entre le nuage orageux et la terre est supérieure à 100 millions de V, une énorme décharge se produit sous forme d'arc électrique. Étant donné que la décharge a lieu en quelques fractions de seconde, des courants élevés pouvant atteindre 100 000 A peuvent se produire. Avec un temps de décharge de z. B. 0,4 ms, l'ampérage est de 50 000 A. A cet ampérage, la puissance d'un éclair est de 5 térawatts (TW). 1 TW correspond à mille milliards de watts. Cela libère une énergie de 560 kWh.

Notes et idées :
La physique des décharges gazeuses pourrait être abordée pour approfondir le sujet. Il est également intéressant de calculer le contenu énergétique de la foudre et de le comparer au pouvoir calorifique de l'essence. Quelle quantité d'essence correspond à l'énergie d'un éclair ? Un autre exemple de l'apparition d'énergie électrique dans la nature sont les anguilles électriques, elles produisent de l'énergie électrique à partir d'une réaction biochimique.

Matières : PSHE, Physique, Technologie, Expertise, Physique

Bibliographie : Fondation Siemens

Titulaire des droits : MediaHouse GmbH

Licence : © Siemens Stiftung 2016. CC BY-SA 4.0 international

Diagramme:
L'énergie chimique en tant qu'énergie de liaison entre les atomes dans la représentation sous forme de courbe de potentiel.

Il y a de l'énergie chimique à la fois dans la liaison des atomes et des molécules et dans la possibilité (potentiel) de liaison chimique. Celle-ci peut être libérée sous forme de chaleur lors de la formation ou de la désintégration des liaisons. Cette "chaleur de réaction" est également appelée enthalpie de réaction (H). Si de la chaleur est dégagée (dH 0) d'un endothermique.
Tout mélange de matières premières pouvant réagir pour former des matières finales doit donc être compris comme un potentiel d'énergie chimique.
Au microscope, cette énergie chimique est contenue dans les liaisons entre les atomes individuels, comme l'illustre la courbe de potentiel.

Notes et idées :
L'énergie chimique est une forme d'énergie qui peut être stockée facilement - que ce soit dans le corps humain ou dans des batteries. Un autre exemple est l'hydrogène comme réserve d'énergie chimique pour les énergies renouvelables.

Matières : Chimie, Physique, Chimie, Physique

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2009. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Schéma graphique :
Aperçu des chemins de conversion de diverses sources d'énergie en électricité.

Afin de rendre les formes d'énergie contenues dans les combustibles nucléaires, régénératifs et fossiles utilisables pour l'homme, elles doivent être converties en une autre forme d'énergie, par ex. B. en énergie électrique ("électricité"). Parmi les sources d'énergie présentées ici, l'énergie nucléaire, les énergies renouvelables et fossiles ainsi que la géothermie et l'énergie solaire thermique ne peuvent pas être converties directement en énergie électrique. Par conséquent, plusieurs étapes de conversion doivent être connectées les unes après les autres. Les deux dernières étapes sont la conversion de l'énergie thermique en énergie mécanique dans la turbine et la conversion de l'énergie mécanique en énergie électrique dans le générateur.
L'énergie hydraulique et éolienne peut entraîner directement un générateur et le photovoltaïque génère directement de l'énergie électrique.

Notes et idées :
Très bien adapté pour expliquer la loi de la conservation de l'énergie. Les étudiants ne tiennent pas pour acquis que l'énergie ne peut pas être générée mais seulement convertie.

Bibliographie : Fondation Siemens

Titulaire des droits : MediaHouse GmbH utilisant les médias de : Von I , Dergenaue , CC BY-SA 3.0 , (Generator License : CC BY-SA 3.0) , From de : User : Igelball - first upload : 27 juillet , 2003 - de : Wikipedia , CC BY-SA 3.0 , https://commons.wikimedia.org/w/index.php?curid=70192 (réservoir d'essence licence : CC BY -SA 3.0)

Licence : © Siemens Stiftung 2017 (CC BY-SA 4.0 international)

Graphique d'aperçu :
Deux manifestations de l'énergie magnétique sont comparées : l'énergie magnétique d'une bobine conductrice de courant et celle d'un aimant élémentaire.

L'énergie magnétique est l'énergie qui est stockée dans une bobine conductrice de courant sous la forme de son champ magnétique. Il résulte du travail que le courant doit faire contre la tension induite (loi d'induction de Faraday). Inversement, cette énergie magnétique est à nouveau libérée sous forme d'électricité lorsque le champ magnétique est décomposé. L'énergie magnétique est également stockée dans un matériau magnétisé : Elle correspond au travail qu'il faut faire pour aligner les dipôles magnétiques de ce matériau dans un champ magnétique extérieur. Dans les matériaux ferromagnétiques, les dipôles magnétiques s'alignent les uns avec les autres dans de petites zones ("domaines de Weiss? S") même sans champ magnétique externe.Si vous alignez les quartiers Weiss au moyen d'un champ magnétique externe, vous obtenez un aimant permanent.
Au fait : si vous chauffez un aimant permanent, il perd son aimantation au-dessus d'une température critique. L'énergie magnétique est libérée sous forme de chaleur supplémentaire à cette température dite de Curie.

Notes et idées :
Une expérience simple sur la magnétisation : un aimant permanent magnétise en passant un clou de fer dessus. Quel travail doit être fait en plus du travail de friction? L'aimant permanent ou son énergie magnétique sont-ils « consommés » ?

Sujets : Physique, Technologie, Physique

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2009. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Diagramme:
Formules pour l'énergie de rayonnement des ondes électromagnétiques et la loi de rayonnement de Planck.

L'énergie rayonnante est l'énergie des ondes électromagnétiques. Elle est proportionnelle au carré de l'amplitude de l'intensité du champ électrique ou magnétique. Les ondes électromagnétiques de haute fréquence et donc d'énergie ont le caractère de particules. L'énergie de ces particules est proportionnelle à la fréquence ou inversement proportionnelle à leur longueur d'onde. Le facteur de proportionnalité est le quantum d'action de Planck h. En examinant le rayonnement du corps noir, Max Planck a découvert que l'énergie du rayonnement doit être quantifiée. Il a formulé une loi du rayonnement, qui ne pouvait s'expliquer que par le postulat d'Einstein des quanta de lumière.

Exemple numérique pour la formule de rayonnement de Planck :
Le soleil a une température de surface de 5 800 K, la puissance de rayonnement associée, selon la formule de rayonnement de Planck, est de 3,85 x 1023 kW. Seule une très faible proportion de celui-ci atteint la terre (avec une incidence verticale de rayonnement de 1,37 kW/m²).

Notes et idées :
L'énergie de rayonnement peut être convertie en d'autres formes d'énergie de plusieurs manières : avec les rayons X, l'énergie de rayonnement est convertie en énergie chimique (noircissement du film photo), la lumière est convertie en énergie électrique dans la cellule solaire, ainsi qu'en radio ondes dans une antenne. L'énergie des micro-ondes peut être utilisée pour chauffer les aliments.

Sujets : Physique, Technologie, Physique

Bibliographie : Fondation Siemens

Auteur : MediaHouse GmbH utilisant la source : OSRAM Lichtlexikon

Copyright : © Siemens Stiftung 2009. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Diagramme:
Formules pour l'énergie thermique des gaz et la dépendance à la température de la capacité calorifique molaire associée à volume constant.

L'énergie thermique ou interne d'une substance est la somme des énergies cinétiques de ses atomes ou molécules. Cette énergie peut être mesurée en température. Si vous ajoutez de la chaleur à la substance, la vitesse des particules augmente et avec elle la température. Dans le cas des gaz moléculaires, l'apport de chaleur peut, en plus du mouvement de translation, stimuler d'autres formes de mouvement (rotation et oscillation). Ceci est exprimé dans le profil étagé de la capacité calorifique molaire (schéma de droite). La capacité calorifique molaire d'une substance indique la quantité d'énergie qu'il faut ajouter pour augmenter 1 mol d'une substance de 1 ° C. Ce qui suit s'applique aux substances gazeuses : Si les particules de gaz ne se déplacent que linéairement (traduction), la quantité de chaleur qui doit être ajoutée pour augmenter le gaz de 1°C est une constante 3R/2. Dans le cas des gaz moléculaires, les molécules commencent à tourner à une certaine température. Dans cette zone (augmentation linéaire sur le schéma) il faut ajouter plus d'énergie afin d'augmenter la température de 1°C, car l'énergie va non seulement dans le mouvement de translation, mais aussi dans l'excitation de la rotation. Si toutes les particules sont mises en rotation, l'énergie qu'il faut ajouter pour augmenter la température de 1°C est à nouveau constante à 5R/2. L'augmentation du passage de la rotation à l'oscillation peut s'expliquer de manière analogue.

Notes et idées :
Le graphique d'ensemble résume le sujet de l'énergie thermique en utilisant les gaz comme exemple. Des explications détaillées et des explications sur la chaleur dans les solides se trouvent dans le guide "Qu'est-ce que l'énergie ?".

Matières : Chimie, Physique, Technologie, Chimie, Physique

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2009. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Fiche exercice :
Questions et tâches arithmétiques sur le degré d'efficacité.

En science et en technologie, l'efficacité d'un processus ou d'une machine est d'une importance primordiale. Il est donc essentiel de comprendre l'efficacité et de pouvoir la calculer.

Notes et idées :
Bien adapté pour approfondir le sujet de "l'efficacité" et pour pratiquer des calculs physiques simples.
Les étudiants peuvent également rechercher le rendement des moteurs thermiques, des centrales électriques, etc. et les compiler sous forme de tableau de valeurs.
Les solutions aux tâches peuvent être trouvées dans la fiche solution du même nom sur le portail média Siemens Stiftung.

Bibliographie : Fondation Siemens

Titulaire des droits : MediaHouse GmbH

Licence : © Siemens Stiftung 2017 (CC BY-SA 4.0 international)

Fiche de solution :
Vers la feuille de calcul du même nom

Notes et idées :
Vous pouvez trouver plus d'informations dans la feuille de travail correspondante « Tâches sur l'efficacité », qui est disponible sur le portail média Siemens Stiftung.

Bibliographie : Fondation Siemens

Titulaire des droits : MediaHouse GmbH

Licence : © Siemens Stiftung 2017 (CC BY-SA 4.0 international)

Informations factuelles:
La signification des termes chaleur, enthalpie et entropie ainsi que les formules associées en un coup d'œil.

En physique, thermodynamique et chimie, outre l'énergie, les grandeurs chaleur, enthalpie et entropie sont d'une importance capitale pour prédire le comportement des processus.

Notes et idées :
Informations générales pour les étudiants.

Matières : Chimie, Physique, Technologie, Chimie, Physique

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2009. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Ressource Web :
Ce lexique explique tous les termes importants en matière d'énergie - de A comme dans "mines - houille" à Z comme dans "stockage intermédiaire - éléments combustibles".

Ouvrage de référence complet sur le thème de l'énergie.

Notes et idées :
Peut être utilisé comme source de recherche pour des présentations ou des projets.

Matières : Chimie, Physique, Technologie, Chimie, Physique

Bibliographie : Fondation Siemens

Auteur : Ce lien est une référence à un contenu tiers et n'implique aucune réclamation ou déclaration concernant les droits sur ce contenu.


Expérimental | 10+ : A2 Nous emmagasinons la chaleur

Le pack média "A2 Nous stockons la chaleur - du stockage de l'eau au sel fondu" contient les instructions de l'expérience pour les enseignants et les étudiants. Toutes les questions sur l'expérience sont répondues sur une feuille de solution séparée.
Des supports supplémentaires tels que des feuilles de travail DFU ou une liste de liens sur le sujet de l'expérience sont également inclus.

Conseils:
- Les règles de sécurité en vigueur en Allemagne ont été prises en compte dans toutes les expériences. De plus, vous devez faire attention aux réglementations de sécurité (fédérales) spécifiques à chaque état. Z aussi. B. en Rhénanie du Nord-Westphalie, la combustion du sucre n'est autorisée que dans des systèmes fermés ou dans la sorbonne.
- Les instructions proviennent d'Experimento, le programme éducatif de Siemens Stiftung. Vous pouvez trouver plus d'informations à ce sujet sur le portail des médias sous "Experimento: Media all about experimentation".
- Tous les matériaux mentionnés dans les instructions doivent être obtenus auprès des détaillants. Du matériel d'expérimentation individuel peut également être obtenu contre paiement dans la boutique en ligne du fabricant de matériel pédagogique Arnulf Betzold GmbH à l'adresse www.betzold.de/experimento.

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2015. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Diagramme:
Diagramme p-T de l'eau pure. Les lignes indiquent la température et la pression auxquelles les phases solide, liquide et gazeuse sont en équilibre l'une avec l'autre. Ce n'est qu'au point triple que les trois phases sont en équilibre, sinon il y en a au maximum deux.

En plus des courbes d'équilibre (courbe de pression de fusion, courbe de sublimation, courbe de pression de vapeur), le diagramme contient également les données de pression et de température pour la fusion, l'ébullition, les points triples et critiques.
Attention : Les axes du schéma ne sont pas tracés à l'échelle.

Notes et idées :
Ce diagramme reflète également l'anomalie de densité de l'eau (densité plus faible à l'état solide qu'à l'état liquide) : La courbe de pression de fusion montre une pente négative. La raison de l'anomalie de densité sont les liaisons hydrogène.

Matières : Chimie, Physique, Technologie, Chimie, Physique

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2012. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Diagramme:
Formules pour l'énergie thermique des gaz et la dépendance à la température de la capacité calorifique molaire associée à volume constant.

L'énergie thermique ou interne d'une substance est la somme des énergies cinétiques de ses atomes ou molécules. Cette énergie peut être mesurée en température. Si vous ajoutez de la chaleur à la substance, la vitesse des particules augmente et avec elle la température. Dans le cas des gaz moléculaires, l'apport de chaleur peut, en plus du mouvement de translation, stimuler d'autres formes de mouvement (rotation et oscillation). Ceci est exprimé dans le profil étagé de la capacité calorifique molaire (schéma de droite). La capacité calorifique molaire d'une substance indique la quantité d'énergie qu'il faut ajouter pour augmenter 1 mol d'une substance de 1 ° C. Ce qui suit s'applique aux substances gazeuses : Si les particules de gaz ne se déplacent que linéairement (traduction), la quantité de chaleur qui doit être ajoutée pour augmenter le gaz de 1°C est une constante 3R/2. Dans le cas des gaz moléculaires, les molécules commencent à tourner à une certaine température. Dans cette zone (augmentation linéaire sur le schéma) il faut ajouter plus d'énergie afin d'augmenter la température de 1°C, car l'énergie va non seulement dans le mouvement de translation, mais aussi dans l'excitation de la rotation. Si toutes les particules sont mises en rotation, l'énergie qu'il faut ajouter pour augmenter la température de 1°C est à nouveau constante à 5R/2. L'augmentation du passage de la rotation à l'oscillation peut s'expliquer de manière analogue.

Notes et idées :
Le graphique d'ensemble résume le sujet de l'énergie thermique en utilisant les gaz comme exemple. Des explications détaillées et des explications sur la chaleur dans les solides se trouvent dans le guide "Qu'est-ce que l'énergie ?".

Matières : Chimie, Physique, Technologie, Chimie, Physique

Bibliographie : Fondation Siemens

Copyright : © Siemens Stiftung 2009. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.

Graphiques, interactifs (avec animations) :
Les états d'agrégation et les transitions de phase des substances sont illustrés et illustrés à l'aide de photos et de films réels utilisant le n-butane comme exemple.

L'image du tableau offre un aperçu général des états agrégés et des transitions de phase des substances. Les animations des états agrégés sont montrées dans le modèle particulaire et les états respectifs sont illustrés par des photos. Les transitions de phase sélectionnées sont illustrées à l'aide de films réels.

Notes et idées :
Le n-butane est facile à obtenir comme gaz à briquet ou de camping. Son point de fusion est de -138,3°C, son point d'ébullition est de -0,5°C.

Matières : Chimie, Physique, Technologie, Chimie, Physique

Bibliographie : Fondation Siemens

Auteur : MediaHouse GmbH utilisant les médias de : Christian Herdt et avec l'aimable soutien du Dr. Kristina Hock et Edith Karaghiosoff du département de chimie de l'université Ludwig Maximilians de Munich

Copyright : © Siemens Stiftung 2013. Tous droits réservés. Uniquement disponible pour les utilisateurs enregistrés.


CHAIRE "LES BASES PHYSIQUES DE LA PHOTONIQUE"

  • F. Henneberger, J. Puls: Optical Properties of Quantum Dots Embedded in Glass, in: Optics of Semiconductor Nanostructures, Chapter IV. 3, 497, Akademie-Verlag, 1993
  • F. Henneberger et al.: Optical Properties of II-VI Quantum Dots in Glass, Adv.Solid State Phys. 32, 279, 1992
  • A. Schülzgen et al. : Ultrafast Carrier Processes in Highly Confiing Quantum Dots, Proc. 21e stagiaire. Conf. Phys. Semi-cond., 1359, Pékin 1992


Clausius, Rodolphe

Les liens avec d'autres personnes ont été extraits des registres du NDB et de l'ADB et obtenus par analyse et identification linguistiques informatiques. Dans la mesure du possible, référence est faite à l'article, sinon à la version numérisée.

Symboles sur la carte

A l'état initial, tous les lieux localisés pour la personne sont déjà inscrits sur la carte et, lorsqu'ils se superposent, sont résumés en fonction du niveau de zoom. L'ombre du symbole est un peu plus forte et il peut être déplié en cliquant. Chaque emplacement a une boîte d'information avec un clic ou un survol de souris. Une recherche dans la base de données peut être déclenchée via le nom du lieu.

Style de citation

Clausius, Rudolf, entrée d'index : biographie allemande, https://www.deutsche-biographie.de/pnd116540486.html [01.07.2021].

  • généalogie
  • La vie
  • des usines
  • Littérature
  • Portraits
  • Auteur
  • Style de citation
  • réseau
  • RDF
  • Version imprimable
  • modèle

Généalogie

Originaire de la famille des pasteurs saxons
V Carl Ernst Gottlieb (1781-1855), Theol. , conseiller scolaire du gouvernement, S d'Ernst Gottlieb (1745-1791), pasteur principal à Woldenberg, et le Wilh. Charl. Dienemann, d'une famille de pasteur
M Charl. Wilh. (1793-1840), T du Pasteur Gottfr. Je suis un homme. Schultze (1757-1840) à Glasow b. Soldin et Christine Wilh. Moutarde
1) Zurich 1859 Adelh. (1833-75), T de → Justus Rimpau (1782-1840), négociant en gros à Brunswick, et Mathilde Fritze, cousine du céréaliculteur Wilh. Rimpau (1814-92 [voir NDB II, 347*, ADB LIII]), 2) 1886 | Sophie, T d'Otto Sack, conseiller à Essen, et Joh. Budde
2 S, 4 T de 1) et autres. Hélène (1863–1919, 1885 → Karl Budde [† 1935], peut-être théol., Voir NDB II), 1 S de 2).

La vie

C., le sixième parmi dix-huit enfants, a étudié à l'Université de Berlin à partir de 1840 pour subvenir aux besoins de ses jeunes frères et sœurs. Il n'obtint son doctorat qu'en 1848, avec une thèse sur l'arc-en-ciel et les phénomènes atmosphériques connexes. En 1850, il devient professeur de physique à l'école d'artillerie et d'ingénierie et en même temps professeur particulier à l'université de Berlin. En 1855, il est allé à l'EPF de Zurich en tant que professeur de physique, en 1867 à Würzburg et en 1869 à Bonn. C. était titulaire de la classe Pour le mérite pour la paix et membre de presque toutes les académies universitaires nationales et étrangères.

Deux réalisations d'une éminente grandeur historique ont rendu son nom immortel dans les sciences naturelles : la formulation mathématique précise de la deuxième loi de la thermodynamique et le fondement de la théorie des gaz cinétiques.

Selon S. Carnot en 1824 B. Clapeyron a clairement prononcé. Mais comme eux et leurs contemporains considéraient la chaleur comme une substance inépuisable et indestructible, ils étaient incapables d'en tirer les bonnes conclusions. Cependant, après avoir assuré le principe énergétique et donc l'équivalence de la chaleur et de l'énergie, C. appliqua en 1850 cette nouvelle connaissance au processus circulaire réversible, qui se produit déjà sous forme d'expérience de pensée avec Clapeyron. Il est arrivé à la conclusion que la conversion de la chaleur en travail mécanique (énergie) ne dépend pas de la substance passant par le cycle, mais a une relation universelle avec les deux températures auxquelles la chaleur est absorbée et émise. Cela a permis de définir une échelle de température absolue, indépendante des propriétés particulières du thermomètre à mercure ou à gaz, etc., qui a en principe remplacé toutes les autres. En 1865, il créa par la suite le terme « entropie », une fonction d'état dont la valeur totale dans un système fermé ne diminue jamais, mais augmente toujours et ne reste constante que dans le cas limite idéal d'un processus réversible. Tous les processus réels sont liés à une augmentation de l'entropie, donc irréversiblement leur inversion signifiait une diminution de l'entropie. - C'est l'expression la plus générale de la "Deuxième Loi de la Thermodynamique". Avec le principe de l'énergie, également connu sous le nom de Première Loi, et la Troisième Loi, découverte par Walter Nernst en 1906, elle fonde l'ensemble de la thermodynamique. Le concept d'entropie est devenu le centre d'intérêt de cette branche de la physique, notamment à travers → Max Planck.

La théorie des gaz cinétiques remonte à A. Krönig (1856) et C. (1857), si l'on fait abstraction des approches qui seront vite oubliées, par exemple par Daniel Bernoulli. Sa caractéristique, par laquelle il diffère de toutes les théories physiques précédentes, est qu'il ne pose pas de questions sur le mouvement de la molécule de gaz individuelle, mais sur l'énergie moyenne, la quantité de mouvement moyenne, le libre parcours moyen de toutes les molécules. C. met cette énergie en relation étroite avec la température absolue, ce qui est valable bien au-delà de la théorie des gaz, il a ouvert la compréhension du frottement, de la conduction thermique et de la diffusion des gaz, il a dérivé l'équation d'état des gaz, et si nous sommes aujourd'hui la masse de l'atome individuel en grammes sont capables de donner ses dimensions en centimètres et le nombre de molécules en molécules en grammes, tout cela remonte à C.La théorie des gaz cinétiques est le prototype de toutes les statistiques physiques, dont l'importance ne cesse de croître. Les deux services sont étroitement liés. Ludwig Boltzmann a trouvé l'interprétation statistique de la deuxième loi dans C.

Des usines

Ex. D. force motrice d. Chaleur et autres Les lois qui en découlent f. D. Laissez la théorie de la chaleur se dériver, dans : Poggendorffs Ann. ré. Physique et Chimie, 1850, Neudr., Ed. v. M. Planck, dans : Ostwalds Klassiker d. connaissance exacte 99, 1921
Ex. D. Essence d. Chaleur comparée à la lumière et au son, Zurich 1857
La fonction potentielle et d. Potentiel, 1859, 4 1885
Le mécanicien. Théorie de la chaleur, 2 volumes, 1864/67, 2e édition et d. T. Dép. plus de ré. mécanicien. Théorie de la chaleur, 1876/79, volume 1, 3 1888, éd. v. M. Planck et C. Pulfrich
Ex. D. deuxième loi d. mécanicien. Théorie de la chaleur, 1867
Ex. D. Connexion entre d. principaux agents d. Nature, 1885
Ex. D. Approvisionnements énergétiques en d. La nature et sa distribution z. Avantage d. L'humanité, 1885.

Littérature

BAD LV
E. Riecke, dans : Abhh. ré. Ges. D. Connaissance Göttingen, Math.-Phys. Kl. 35, 1888 (complet W - | retard)
W. Nernst, à l'occasion du 100e anniversaire de C., dans : Gedenkfeier d. Univ. Bonn pour les anciens membres, 1922 (P)
R. Anschütz, août Kekulé I, 1929 (P)
Lb. Pommern I, 1934, pp. 208-11 (W, L, P)
Pogg. I, III, IV (W complet - retard) hs. domaine scientifique en allemand Mus. Munich.

Portraits

De d. Entreprise ré. Physique de Berlin, 1935, Figure 5
Gem (en la possession de Mme Marg. Wempe-Hagemann, Essen-Bredeney)
Photo. (P - Collection du Mus. allemand Munich)
Buste en plâtre v. A. Küppers, 1888 (Phys. Inst. D. Univ. Bonn), ill. In : Gr. Allemands sur la photo, 1936, page 363.

Auteur

Style de citation recommandé

Laue, Max von, & quotClausius, Rudolf & quot dans : Neue Deutsche Biographie 3 (1957), pp. 276-278 [version en ligne] URL : https://www.deutsche-biographie.de/pnd116540486.html#ndbcontent

La vie

Clausius *) sur le tome XLVII, p. 500. : Rudolf Julius Emanuel C. est né le 2 janvier 1822 à Köslin en Poméranie comme l'un des plus jeunes des dix-huit enfants du conseiller de l'école publique Clausius. Il a fait ses études dans l'école privée de son père à Uckermünde, où il s'était retiré pour prendre sa retraite en tant que pasteur et surintendant. Rudolf C. a passé les deux dernières années du lycée au lycée de Stettin. Déjà ici, il excellait en mathématiques et en physique, et il était bien apprécié de ses professeurs, tant pour son talent que pour ses traits de caractère exceptionnels. En 1840, il s'installe à l'Université de Berlin. Au début, il a hésité dans le choix de son programme d'études, car les conférences historiques de Ranke le fascinaient beaucoup, mais son penchant pour les mathématiques et les sciences naturelles a pris le dessus. Il a entendu des conférences de Dirksen, Ohm, Dirichlet, Steiner, Dove et Magnus. Avant même d'avoir terminé ses études, il a repris un poste de professeur particulier à Berlin en 1843 afin de permettre à son père de subvenir plus facilement aux besoins de ses jeunes frères et sœurs. C'est à cette époque que sont réalisées ses premières publications, et c'est à ce moment-là qu'il trouve les idées de son œuvre la plus marquante. En 1847, il obtient son doctorat à Halle. En 1850, C. reçut le poste de professeur de physique à l'école d'artillerie et d'ingénierie de Berlin et put ainsi se consacrer encore mieux à l'activité scientifique, et la même année il termina son habilitation à l'université. En 1855, il accepte un poste à l'Eidgenössisches Polytechnikum de Zurich, où il travaille pendant douze ans, parallèlement à l'université depuis 1857. Il épousa Adelheid Rimpau en 1859, mariage qui donna naissance à six enfants. Après avoir refusé plusieurs offres dans d'autres universités techniques, il accepte en 1867 une offre à l'Université de Würzburg, qu'il échange contre une université de son pays d'origine, à savoir Bonn, en 1869. Il y travailla jusqu'à la fin de sa vie en 1888, et il refusa toutes les autres offres, dont certaines étaient très alléchantes. N'oubliant jamais ses devoirs de citoyen au-delà de la science, C. participa à la campagne de 1870 en tant que chef d'un corps d'urgence d'étudiants de Bonn. Blessé au genou sur le champ de bataille de Gravelotte, il souffrait continuellement des séquelles de la blessure. Sa femme lui ayant été arrachée par la mort en 1875, il se consacra à ses devoirs de père de famille d'une manière d'autant plus touchante. En 1886, il épousa Sophie Sack pour la deuxième fois, mais en 1888, il tomba malade d'une anémie pernicieuse et y succomba doucement et sans douleur le 24 août de la même année. Aussi longtemps qu'il le pouvait, il s'en tenait à ses devoirs de docent et était | jusqu'à sa fin avec la publication de la nouvelle édition de sa "théorie de la chaleur mécanique" bien remplie. C. était membre des académies et sociétés savantes les plus prestigieuses d'Europe. Personnellement, il était le modèle d'un savant allemand de simple solidité de nature et de chaleur naturelle de disposition. Si simple, extérieurement, était sa vie, si importantes sont ses réalisations.

Son premier ouvrage parut en 1847 et traitait de la diffusion de la lumière dans l'atmosphère et de l'intensité de la lumière solaire réfléchie. C'était aussi le sujet de sa thèse inaugurale. Ici C. s'attaquait à une question importante et urgente pour tout le monde, celle des causes du ciel bleu et des rougeurs matin et soir, pour la première fois systématiquement et en totalité. Il montra d'abord - et c'est encore aujourd'hui l'opinion dominante - que la cause doit être des particules libres dans l'air. Si les phénomènes se sont produits uniquement par réflexion et réfraction ordinaires, comme l'arc-en-ciel, il a ensuite prouvé, sachant qu'il connaissait bien les méthodes de l'optique théorique, qu'il ne pouvait s'agir ni de particules solides, opaques, ni de gouttelettes d'eau compactes. Le tout doit être un phénomène de feuilles très fines, car celles-ci reflètent plus le bleu que le rouge. Comme de tels feuillets parallèles au plan ne pouvaient pas être facilement imaginés dans l'atmosphère, il supposa qu'ils étaient incurvés en vésicules - mais croyait z. B. de Saussure, pour avoir réellement observé de telles bulles de brouillard creuses. Incidemment, quelques bulles dans la lueur d'un rayon de lumière suffisaient à expliquer la couleur du ciel clair. De là, la distribution de la couleur et de l'intensité de la lumière du ciel a résulté d'une manière satisfaisante. Il était compréhensible que cette théorie particulière ait été attaquée à plusieurs reprises, mais C. a toujours su la défendre avec succès contre toutes les objections. Mais quand, au bout de dix-neuf ans environ, on connut des phénomènes selon lesquels des particules extrêmement fines et opaques en suspension dans l'air provoquaient les mêmes phénomènes par le phénomène de diffraction, il reconnut volontiers l'égalité d'une théorie basée sur cela. Après tout, il avait délibérément laissé de côté les explications possibles du cadre de sa théorie qui n'étaient pas basées sur la réfraction et la réflexion ordinaires. La vue plus récente du bleu du ciel, développée par Lord Rayleigh, est en fait basée sur le phénomène de diffraction, et bien sur les particules d'air elles-mêmes C. mais le mérite d'avoir systématiquement abordé la question de la lumière céleste pour la première le temps reste.

Il publie également à cette époque un ouvrage remarquable sur la théorie de l'élasticité, mais ce n'est qu'à travers le traité soumis à l'Académie de Berlin en février 1850 qu'il prend conscience de lui : « Sur la puissance motrice de la chaleur et les lois qui en dérivent de lui pour la chaleur elle-même permettre ". Avec cela, nous entrons dans le domaine dans lequel, comme on peut le dire, se trouvent les mérites immortels de Clausius.

Considérons d'abord l'état de la thermodynamique à ce moment-là. L'idée que la chaleur était une substance, un fluide, a cédé la place, au moins dans certains des esprits les plus éminents, à la vision de la chaleur comme une forme d'énergie. En 1842, JR Mayer avait mis en place cette nouvelle doctrine dans un article initialement négligé et enseignait comment déterminer l'équivalent mécanique de la force thermique. Toujours debout | Il y a des raisons sérieuses contre la reconnaissance générale du principe de l'équivalence de la chaleur et du travail. C'était la théorie de Carnot (Réflexions sur la force motrice du feu et sur les machines propres à développer cette puissance, 1824), qui reposait sur les vieux principes de la théorie des fluides, qui à l'époque produisait encore systématiquement les plus beaux résultats pour la science et donc n'a pas pu être laissé bien. Carnot place le fluide thermique, qu'il supposait encore, dans un corps à haute température en parallèle avec un liquide dans un récipient à un niveau élevé, et le fluide thermique dans un corps à basse température avec un liquide dans un récipient à un niveau inférieur . Par la transition du fluide au corps à une température plus basse, le travail pouvait donc être obtenu conformément aux lois de l'énergie potentielle d'un liquide - seulement que la différence de température a pris la place de la différence de hauteur - sans perte de chaleur. De cette idée Clapeyron a pu dériver sa célèbre équation de la chaleur de vaporisation.Par la même méthode, William Thomson a obtenu la variabilité du point de fusion de l'eau avec la pression en 1849 et a ainsi pu confirmer avec brio la théorie de Carnot dans les expériences de son frère Jacques. Ainsi, ce célèbre physicien anglais adhérait encore à la théorie des fluides de la chaleur en 1849, mais la décrivait comme l'un des problèmes les plus complexes du futur, qui ne peut être résolu que par de nouvelles expériences, la nouvelle vision de l'équivalence de la chaleur et du travail, dont il ne manquait naturellement pas la valeur avec les résultats de la théorie de Carnot en harmonie.

Ici, C. 1850 est intervenu et, sans nouvelles expériences, a résolu le problème existant en établissant une deuxième loi de la chaleur, et il a effectivement réussi à transférer l'essence de la théorie de Carnot à la nouvelle conception de la chaleur.

Si l'on essaie de comprendre cette première grande réalisation de C., il faut noter d'avance qu'elle n'était qu'une partie du but qu'il poursuivait. Dès le départ, C. s'est attaché à développer une idée claire de la nature de la chaleur. Mais il a reporté les publications à ce sujet jusqu'en 1857 avant l'incorporation stricte du théorème de Carnot dans la nouvelle thermodynamique.

Le problème de Carnot était une tâche pratique, dérivée de la théorie de la machine à vapeur. Chaque "machine" est un dispositif qui, dans le but d'effectuer un travail ou d'obtenir du travail, subit des changements dans l'agencement de ses parties de telle sorte qu'il revient toujours à l'agencement d'origine. L'activité d'une machine consiste donc en une somme de « processus circulaires » se succédant. Carnot avait maintenant conçu son propre processus circulaire pour les machines à chaleur, qui fournissait le travail maximum qui peut être obtenu dans des conditions de température données, et à l'aide de son concept de fluide, il a dérivé une loi pour son processus circulaire d'une manière simple, que nous pouvons décomposer en les théorèmes suivants : 1 Un gradient de chaleur est nécessaire pour pouvoir gagner du travail (par exemple pour créer de l'énergie potentielle) dans un processus circulaire d'une machine à chaleur la quantité de chaleur qui déborde du récipient à haute température à l'inférieur. En mettant C. dans son | Les travaux mentionnés ci-dessus ont initialement transféré ce processus circulaire dans des proportions infiniment petites et l'ont ainsi rendu facilement accessible aux méthodes de la physique théorique, ils ont en effet pu dériver une loi analogue à l'hypothèse de Carnot, même si la loi de Mayer-Helmholtz de la l'équivalence de la chaleur et du travail était présupposée, il n'a ajouté qu'un second principe nouveau : la chaleur ne peut jamais passer d'un corps plus froid à un corps plus chaud par elle-même. Cela signifie que la chaleur ne peut être équilibrée que d'un corps chaud à un corps froid (comme dans le cas de la conduction thermique ordinaire), mais avec chaque transfert dans le sens opposé, le travail doit toujours être effectué, c'est-à-dire. H. une énergie potentielle existante est perdue quelque part, il y a - outre le transfert de chaleur lui-même - un changement permanent de nature. A l'aide de ce principe bien accepté, la deuxième loi de la théorie de la chaleur mécanique, C. a d'abord réussi à déduire la relation suivante, qui ne diffère que légèrement de celle de Carnot : dans le cycle de Carnot, le travail gagné est la différence de température et aussi la quantité de chaleur transférée - cette dernière mais seulement dans la mesure où elle n'est pas convertie en travail - proportionnellement. A partir de cette relation, on retrouve en fait tous ces résultats de la théorie de Carnot, que Carnot a déduits de la diminution de l'énergie potentielle d'un fluide thermique. L'un des premiers à approuver la nouvelle théorie fut William Thomson. Suivent quelques-unes des applications les plus fructueuses, auxquelles, outre C., ce physicien anglais s'est particulièrement impliqué. Il convient également de mentionner que l'Anglais Rankine a poursuivi des idées similaires aux côtés de C., mais ne s'est même pas approché de la clarté de C.

Dans la proportionnalité dérivée du processus circulaire de Carnot par C., un facteur restait d'abord indéterminé, qui pourrait être lui-même fonction de la température. Cependant, C. a déjà réussi à l'évaluer dans ses premiers travaux en appliquant le processus circulaire à un gaz parfait pour lequel certaines simplifications s'appliquent. Néanmoins, un approfondissement et une généralisation de la dérivation semblaient souhaitables. Il l'a fait en 1854 dans le traité : " A propos d'une forme modifiée de la deuxième loi de la théorie de la chaleur mécanique. " Dans ce travail, C. se montre maître de la physique conceptuelle de méthodes complètement nouvelles et fructueuses. Bien que dans le procédé de Carnot il reste un changement de nature après chaque séquence, à savoir que du travail est gagné et que la chaleur est transférée à une température plus basse et vice-versa, C. s'est maintenant demandé : peut-on attribuer une valeur transformatrice à chacun de ces changements individuels ? que la somme des « métamorphoses » survenues au cours du processus circulaire est nulle ? Au moyen d'un processus circulaire compliqué nouvellement conçu, qui fonctionne avec trois températures, il a en effet trouvé une fonction, dont le changement avec chaque processus circulaire réversible reprend l'ancienne valeur, et représente donc les valeurs de transformation dans le requis sens. (Les processus réversibles sont ceux qui ont lieu avec le plus grand gain de travail possible et le moins de travail possible, qui se déroulent donc en réalité infiniment lentement et ne sont qu'une succession d'états d'équilibre. Ce cas limite idéal est également toujours supposé dans le processus circulaire.) Réalisons une nouvelle température " "absolue", en calculant la température habituelle au lieu du point de fusion de la glace de -273° Celsius, C. a montré que la quantité de chaleur absorbée divisée par la température absolue est ici la valeur de transformation d'un processus ou, avec | une impression ultérieure par C., le changement d'entropie du système. Il en résultait aussi : dans le cas d'un processus circulaire irréversible - et tous les processus circulaires réels ne sont pas réversibles, puisqu'ils se déroulent à vitesse finie - l'entropie a toujours augmenté à la fin. Dans le cas d'une partie réversiblement dirigée d'un processus circulaire, l'entropie peut bien entendu avoir augmenté ou diminué selon le sens du processus ; elle se comporte assez grossièrement comme un contenu énergétique. Si nous incluons maintenant tous les corps de l'environnement dans le terme "machine", dans la mesure où ils participent à l'échange de chaleur, alors naturellement toute dissipation de chaleur et absorption de chaleur vers "l'extérieur" cesse, le système devient un système dit adiabatique. . Si des processus réversibles ont lieu dans le nouveau système, le résultat est le suivant : l'entropie reste constante dans tous les processus réversibles dans un système adiabatique, puisque la quantité de chaleur absorbée et émise est toujours nulle. Cependant, si les processus du système étaient irréversibles, comme c'est toujours le cas, alors son entropie augmente toujours. William Thomson a étendu le dernier résultat d'une manière intéressante à l'ensemble de l'univers, que l'on peut également comprendre comme un système adiabatique, puisqu'il ne peut ni recevoir de chaleur de l'extérieur ni la émettre vers l'extérieur. Il a fait la phrase : L'entropie de l'univers augmente. Une certaine tendance dans les affaires du monde semblait ainsi se trouver, pour la première fois probablement sur une base physique.

Bien que la considération de C. ait conduit aux conclusions les plus ambitieuses, il n'a jamais négligé les besoins du praticien. En 1856, il appliqua la théorie de la chaleur mécanique à la machine à vapeur et posa ainsi les bases de la thermodynamique technique moderne. Surtout la question de la chaleur spécifique des vapeurs, dont il a montré qu'elle peut être à la fois positive et négative, qu'il a clarifiée indépendamment de Rankine et dans une plus large mesure. En 1865, les grands principes de la thermodynamique ont été présentés à nouveau sous une forme mathématiquement modifiée qui était particulièrement adaptée à l'utilisation.

Dans le J.En 1857, alors que C. s'était déjà installé à Zurich, commença la deuxième période de son activité scientifique. H. via la théorie dite des gaz cinétiques. La cause externe était un traité de Krönig, publié en 1856, sur l'explication de la pression du gaz à partir du mouvement moléculaire, qui coïncidait essentiellement avec les résultats inédits de C., mais sans les atteindre. Alors C. ne voulait plus se retenir avec eux. Incidemment, tant C. que Krönig, comme il s'est avéré plus tard et cela est compréhensible, avaient déjà leurs prédécesseurs, plus ou moins imparfaitement. Bien entendu, cela n'enlève rien à ses services. Dans son premier traité, intitulé « A propos du type de mouvement que nous appelons chaleur » (Annalen de Poggendorff 1857), l'accent est mis sur l'explication de la force d'expansion d'un gaz. D'après C., les molécules d'un tel mouvement se déplacent essentiellement indépendamment les unes des autres, donc en ligne droite. Les chemins subissent des interruptions et des changements de direction de deux manières : d'une part, à l'intérieur du gaz. Si une molécule s'approche d'une seconde, des forces mutuelles apparaissent, d'abord des forces d'attraction qui rapprochent encore plus les centres des molécules, mais comme elles ne peuvent pas se pénétrer, à une certaine distance elles se repoussent à nouveau. L'ensemble de l'effet est d'abord approximé par le push | deux boules élastiques remplacées. Ensuite, il y a des changements dans la direction des molécules au bord du gaz, c'est-à-dire. H. sur les murs. Chaque molécule qui, puisqu'aucune énergie n'est perdue dans son ensemble, doit être réfléchie sur la paroi selon les lois du choc élastique, exerce ainsi une petite force de compression sur elle. La somme de toutes ces forces de pression extrêmement nombreuses aboutit à la force d'expansion du gaz qui, à l'équilibre, s'oppose à la pression extérieure d'égale grandeur. Le calcul du nombre d'impacts sur la paroi peut être effectué relativement facilement lorsque le gaz est suffisamment dilué, c'est-à-dire lorsque le volume intrinsèque des molécules est petit par rapport au volume total du gaz. Vous pouvez alors négliger les bosses à l'intérieur. La force d'expansion est proportionnelle au nombre de molécules dans l'unité de volume, c'est-à-dire H. une explication de la loi de Boyle-Mariotte suit immédiatement. La loi de Gay-Lussac de la dépendance de la pression à la température, et en même temps aussi la règle bien connue d'Avogadro, suivent également si l'on considère la force vive du mouvement du centre de gravité des molécules comme proportionnelle à la température absolue . Cela explique toutes les lois des gaz, et la température est due à l'énergie cinétique des molécules.

A partir de l'amplitude de la chaleur spécifique, C. montra que toute l'énergie thermique d'un gaz ne pouvait pas consister en ce seul mouvement du centre de gravité, comme Krönig l'avait supposé, mais que, selon la complexité de la molécule, en rotation ou des mouvements oscillants doivent encore avoir lieu par rapport au centre de gravité, dont la force vitale est également proportionnelle à la température absolue. De la chaleur spécifique de l'azote, de l'oxygène et de l'hydrogène, il déduisit avec certitude que ces gaz étaient diatomiques, opinion que, bien que quelques chimistes français l'avaient déjà soutenue, elle se confirmait ainsi à des points de vue entièrement nouveaux. Pour le mercure monoatomique, en fait, la plus petite valeur possible de chaleur spécifique selon la théorie a été trouvée plus tard, ce qui était une confirmation très bienvenue de la théorie. Les vitesses moyennes des molécules pouvaient aussi être calculées directement, et c'était 461 m par seconde pour l'oxygène, 412 m pour l'azote et 1844 m pour l'hydrogène à 0°C peuvent arriver aux écarts par rapport aux mêmes observés par Regnault. Ici, il faut tenir compte du fait que l'espace occupé par les molécules n'est plus petit par rapport à l'espace dans son ensemble, et alors que les attractions mutuelles des molécules ne peuvent plus être négligées à des distances moyennes les unes des autres. Comme on le sait, J. D. van der Waals a plus tard réalisé cette théorie d'une manière heureuse sur la base du théorème du viriel de Clausius, qui reste à discuter. La théorie des gaz imparfaits conduit maintenant à celle de l'état liquide. Ici aussi, comme dans l'état gazeux selon C., les molécules n'ont pas de positions fixes d'équilibre, mais l'attraction mutuelle est si grande que la force expansive du mouvement moléculaire est seule capable de maintenir l'équilibre. Il consacre beaucoup de temps au processus d'évaporation. Si le liquide a une surface libre, l'énergie cinétique moyenne des molécules n'est pas suffisante pour les éliminer du liquide. Si, cependant, une molécule à proximité de la surface a reçu une vitesse particulièrement élevée perpendiculairement à la surface du liquide par des impacts précédents appropriés, elle peut s'envoler de celle-ci dans l'espace gazeux. Le travail à faire ici, qui est égal à la perte d'énergie cinétique qui se produit, forme la chaleur de vaporisation. | Si l'espace vapeur est limité, il se remplira de molécules jusqu'à ce que le nombre de celles qui se retirent dans le liquide à travers l'unité de surface soit égal à celui de celles qui le quittent dans le même temps, alors on a de la vapeur saturée sur le liquide . Un gaz indifférent dans l'espace vapeur ne semble pas perturber l'équilibre tant que le volume intrinsèque de ses molécules ne réduit pas significativement l'espace vapeur. De plus, selon cette théorie, le rapport de densité de vapeur et de liquide ne peut dépendre que de la température et non des volumes de liquide et de vapeur. Cela donne une information satisfaisante sur tous les phénomènes essentiels de l'évaporation. C. inclut également l'état solide dans sa théorie. Ici aussi, il imagine les molécules et les atomes en mouvement constant, mais ils sont liés à des positions centrales fixes. En particulier, l'état du gaz était le plus largement suivi mathématiquement par lui.

Bien que C. ait maintenant expressément signalé l'existence de chocs et de déviations à l'intérieur d'un gaz, mais pouvait les négliger lors du calcul de la pression du gaz, ce fait a d'abord été négligé à plusieurs reprises, et les vitesses moléculaires élevées dans les gaz qu'il a calculées ont suscité contradiction et étonnement. . Il semblait que le chlore, développé dans le coin d'une pièce, en raison de la grande vitesse moléculaire, devait se répandre presque instantanément dans toute la pièce, alors que c'est un processus relativement lent. Cette objection a incité C. l'année suivante, 1858, à soulever la question de la taille de la voie libre, c'est-à-dire. H. les chemins parcourus sans distraction à l'intérieur, à discuter plus en détail, et il a résolu ce problème apparemment si compliqué de la manière ingénieuse connue de son travail précédent. Le résultat était que les longueurs de trajet réelles sont réparties autour de la longueur de trajet moyenne d'un gaz selon une loi exponentielle de telle sorte que des trajets beaucoup plus courts que longs se produisent. Il a également dérivé la proposition simple : la longueur moyenne du trajet d'une des molécules supposées sphériques est égale à son rayon divisé par quatre fois le volume que toutes les molécules de l'unité de volume occupent réellement. De la compressibilité nous pouvons conclure qu'à la pression atmosphérique les molécules d'un gaz ne remplissent pas réellement plus d'un millième du volume disponible. Cependant, le rayon d'une molécule est d'une taille bien inférieure à ce qui peut être observé au microscope, en fait, il est presque inimaginablement petit. La longueur moyenne du trajet ne serait donc qu'environ 250 fois supérieure à cette taille extrêmement petite, et donc encore microscopique en elle-même, et les trajets des molécules sont des lignes en zigzag dont les tronçons rectilignes sont extrêmement courts. Ceci explique la lente diffusion des gaz par rapport à la vitesse moléculaire. Maxwell, qui a poussé plus loin la théorie de C., a ensuite enseigné comment reconnaître quantitativement la signification de la longueur moyenne du trajet pour le frottement, la diffusion et la conduction thermique d'un gaz, et calculer numériquement la longueur moyenne du trajet. C. prit à nouveau une part éminente dans l'élaboration de la théorie, notamment celle de la conduction thermique. Peu avant la fin de sa vie, dans le troisième volume de sa "Théorie de la chaleur mécanique", il a enrichi la théorie de la longueur moyenne du trajet de résultats précieux qui s'étendent au cas des gaz plus fortement comprimés. L'un des plus grands résultats de la physique théorique est basé sur la théorie de la longueur moyenne du trajet, à savoir le calcul du nombre absolu de molécules dans l'unité de volume d'un gaz. Loschmidt a été autorisé à cueillir ce plus beau fruit sur la base de la théorie de Clausius en 1865.

Alors que C. ouvrait un nouveau monde moléculaire d'idées, il cherchait | aussi depuis 1857 pour mettre sa deuxième loi de la théorie de la chaleur, dont il avait délibérément tenu à l'écart tous les éléments non purement empiriques, sur la même base de cinétique moléculaire. La première approche de cela qu'il a faite en 1862 en introduisant le concept de désagrégation ou le «degré de distribution» des molécules. La chaleur essaie d'augmenter la disgrégation, la "force effective" de la chaleur est réglée - au départ vraisemblablement - proportionnelle à la température absolue (et ne dépend que de celle-ci). Avec cette hypothèse, il a été montré que le travail interne plus externe divisé par la température absolue associée est une quantité qui caractérise l'état, analogue à l'entropie, et aussi, assez étrangement, tout à fait de la même forme. C. appelle cette fonction la disgrégation. En 1870, il a pu donner une interprétation mécanique plus précise de ces considérations, qui n'étaient au départ pas faciles à comprendre dans leur portée, au moyen du théorème du viriel qu'il a trouvé. Dans l'équation du viriel, la somme de toutes les énergies en progression est à gauche ; à droite se trouvent les produits de coordonnées avec les forces d agissant dans le système. H. Quantités de travail : ainsi la capacité de travail du système contre les forces qui y agissent est proportionnelle à la somme de ses forces vives, et donc, selon les idées de C., proportionnelle à la température absolue. C'est le sens du théorème de Clausius : la force efficace de la chaleur est proportionnelle à la température absolue. Il est à noter que la mécanique statistique moderne rend en effet très probable de ne considérer la force vive qu'en fonction de la température et indépendamment de l'état d'agrégation. De plus, la même année, il réussit à démontrer la loi d'entropie directement comme conséquence des conceptions mécaniques de la chaleur en utilisant des résumés conceptuels similaires à ceux contenus dans le théorème de la désagrégation, et en considérant les mouvements des points de masse reculant avec changements lents dans les forces extérieures. Ludwig Boltzmann avait déjà donné une dérivation similaire, mais pas si complète, en 1866 ; elle avait été négligée par C., ce qui s'expliquait par ses deux déménagements au cours de ces années à Würzburg et à Bonn. Mais la dérivation de C. est encore plus générale. En 1884, il a également pu montrer que les considérations de Helmholtz sur la relation entre les systèmes cycliques et la deuxième loi de la thermodynamique étaient contenues dans ses recherches antérieures et celles de Boltzmann. Mais il admettait aussi dans cet ouvrage que l'essence de la seconde loi n'avait pas encore été épuisée par ces développements. En fait : le bilan énergétique entre les différentes parties du système et la validité d'une distribution moyenne y sont en fait déjà présupposés, mais selon les recherches de Boltzmann, l'essence de la deuxième loi réside dans le processus d'échange d'énergie, qui C. plus tôt dans les théorèmes avait exprimé : La chaleur ne peut s'écouler par elle-même que d'une température plus élevée à une température plus basse. La seconde loi est avant tout une proposition de probabilité et dit : Avec le nombre énorme de particules impliquées, tous les processus vont dans le sens d'une distribution plus probable. L'entropie en particulier est quantitativement égale à une constante universelle multipliée par le logarithme de la probabilité de la distribution des états en question.

C. a également été guidé par la deuxième loi sur le rayonnement thermique, et ici, en partie en accord avec Kirchhoff, a dérivé des relations intéressantes.

Quant à la théorie pure de l'électricité, il reconnaissait clairement l'insuffisance de la loi élémentaire de Weber, largement répandue en Allemagne à cette époque. B. au fait que cette loi est incompatible avec les différentes vitesses de migration de l'électricité positive et négative dans les électrolytes. De telles considérations ont pu conduire C. principalement à rejeter cette loi. Inspiré par Gauss, des tentatives intéressantes ont été faites à cette époque pour dériver une loi d'action électrique à partir de la vitesse finie de propagation de la force électrique. Bien que C. ait manifesté un vif intérêt pour ces efforts, les tentatives faites dans ce sens ne satisfaisaient pas son esprit critique. En 1875, il établit une nouvelle loi électrodynamique fondamentale qui, comme celle de Weber, contenait non pas les mouvements relatifs mais absolus des particules électriques, supposant que c'était ce qui importait si, comme c'était probable, les forces se produisent par le mouvement dans un milieu qui est imaginé être au repos. Avec cela, C. se rapproche considérablement de la conception moderne de la théorie des électrons, avec laquelle sa loi a également en commun que le principe d'action et de réaction ne s'applique plus aux particules, ce qui était alors considéré comme une objection. Cependant, C. était encore trop du point de vue de la télécommande. S'il avait été davantage du point de vue de l'effet de gros plan conséquent, qui est représenté en Angleterre, alors, comme le dit le célèbre physicien anglais Fitzgerald dans sa nécrologie pour C., son génie aurait réussi à faire la théorie de la gaz, que l'on lui doit, une satisfaisante. Mettons de côté la théorie de l'éther.

Si l'on considère la somme de ce que C. a fait durable et précieux pour la science, il faut le compter dans le meilleur sens du terme parmi les premiers philosophes de la nature des temps modernes. La plupart de ses traités sont contenus dans 57 volumes des Annalen der Physik und Chemie de Poggendorff et Wiedemann. Il y a aussi 44 autres articles indépendants dans z. Th. Magazines étrangers. Dans les nombreux essais au contenu polémique, il fait toujours preuve d'une élégante reconnaissance du travail des autres. Sept publications sous forme de livre sont également disponibles chez C., dont la "Mechanical Heat Theory" en trois volumes, Braunschweig 2e et 3e édition, est de loin la plus importante.


Spécialisation : Dépendance en température des produits cibles - chimie et physique

Vous pouvez devenir membre. Les membres peuvent commander la newsletter Matheplanet, qui paraît environ tous les 2 mois.

Il y a actuellement 1123 invités et 8 membres en ligne

Je ne vais pas plus loin avec mes connaissances de l'université.

J'ai un moteur à courant continu avec la formule

[ point_A = - frac i_A + frac <1>u_A - frac <1>(k_t oméga + k_y oméga ^ 2 i_A) ]
décrit.
Maintenant, je veux intégrer cela dans ma représentation de l'espace d'état. A mes questions :
1.) Le dernier terme est-il une non-linéarité ?
2.) Comment puis-je obtenir le dernier terme dans ma représentation de l'espace d'état ?

Mon approche avec l'équation mécanique
[ point < oméga> = frac <1>(k_m i_A - M_) ] et [M = i_A * k_m ]
L'entrée est la tension [u_A] et [M_] et afficher la vitesse [ omega ].


gauche [< commencer
point_UNE
oméga
finir > à droite]
=
gauche [< commencer
- frac i_A & ?? - frac <1>?? \
frac <1>* k_m & 0
finir > à droite]
gauche [< commencer
i_A
oméga
finir > à droite]
+
gauche [< commencer
- frac <1> & 0 \
0 & - frac <1> \
finir > à droite]
gauche [< commencer
u_A
M_ \
finir > à droite]
]
Ma pensée
Si les termes sont des non-linéarités, dois-je les linéariser à l'aide de la série de Taylor et obtenir à nouveau un comportement linéaire mais variant dans le temps ?

à la question 1 : oui, l'équation est non linéaire.
Par conséquent, l'espace d'état est bien adapté pour une analyse.

Concernant la question 2 : je suis d'avis (du moins c'est comme ça que j'ai toujours fait) qu'il vaut mieux ne pas linéariser tout de suite, car alors des propriétés essentielles sont perdues.

J'écrirais d'abord le DGL, sans aucune matrice.


f et g résultent des équations données.
Maintenant, vous avez réellement tout pour chaque point
vous obtenez maintenant une pente la fin qui peut être saisi.

Les trajectoires des courbes résultantes décrivent la dépendance temporelle.

Maintenant, il y a quelques points importants à garder à l'esprit avec les équations non linéaires.

a) Il est utile de déterminer les points fixes. Alors qu'un système linéaire en a un maximum, les systèmes non linéaires peuvent en avoir plusieurs. Ce sont des points avec

b) Il est utile de déterminer des orbites, c'est-à-dire des trajectoires qui sont des boucles fermées.

c) Il est utile de déterminer la stabilité des points fixes, stables ou instables par linéarisation

Il n'y a pas d'attracteurs en deux dimensions.

Je pense que vous avez un système très simple, donc c'est un peu comme le truc du canon et du moineau. Néanmoins:

Il existe de bons livres sur les systèmes d'équations non linéaires tels que B. Stuart et Humphries : Systèmes dynamiques et analyse numérique.

Il me semble cependant important qu'un traitement linéaire des systèmes non linéaires soit insuffisant et obscurcit la vision de l'essentiel. Les linéarisations ne conviennent que pour l'analyse de points fixes, sinon les représentations de l'espace d'état sont plus significatives.

Merci pour la réponse détaillée.
Maintenant, j'ai quelques questions sur votre réponse :).

2018-12-18 19:51 - holsteiner dans l'article n. 1 écrit :


J'écrirais d'abord le DGL, sans aucune matrice.


1.) J'ai dérivé la notation des matrices à partir des DGls. ( point < omega> = f ( omega, i_a) ) ne dépend pas de ( omega ) pour moi, ou ai-je oublié / mal compris quelque chose ?
De plus, je n'ai pas bien compris en entrant :

2018-12-18 19:51 - holsteiner dans l'article n. 1 écrit :

f et g résultent des équations données.
Maintenant, vous avez réellement tout pour chaque point
vous obtenez maintenant une pente la fin qui peut être saisi.

Pourriez-vous expliquer cela plus en détail?


2.) Comment puis-je déterminer les trajectoires ou trouver les points fixes ? Facile avec Matlab ?

2018-12-18 19:51 - holsteiner dans l'article n. 1 écrit :

Je pense que vous avez un système très simple, donc c'est un peu comme le truc du canon et du moineau. Néanmoins:
.
Il me semble cependant important qu'un traitement linéaire des systèmes non linéaires soit insuffisant et obscurcit la vision de l'essentiel. Les linéarisations ne conviennent que pour l'analyse de points fixes, sinon les représentations de l'espace d'état sont plus significatives.

3.) Oui, c'est probablement un système simple - mais bon pour apprendre :). Vous parlez de linéarisation et de représentation de l'espace d'état comme s'il s'agissait de processus séparés. Je pensais qu'une linéarisation était nécessaire pour une représentation de l'espace d'état avec des non-linéarités ?

4.) Mon approche consistait simplement à ajouter les non-linéarités en tant qu'addition dans le modèle d'espace d'état.

.
Je ne sais tout simplement pas comment accéder aux états internes de (i_A ) et ( omega ) ou comment les implémenter dans Matlab.


Merci Holsteiner, j'apprécie votre temps et je suis très reconnaissant pour votre soutien :)


2) Vous créez un graphique en sélectionnant les paramètres A à E pour un ensemble, puis en dessinant le portrait de phase montré dans l'exemple. C'est assez facile. C'est une méthode issue de la physique (espace des phases>

La méthode d'analyse de l'espace des phases correspond exactement à votre problème. J'assimilerais le terme "espace de phase" à votre terme "espace d'état", car la méthode convient, même si la motivation est différente.

3) Vous recevez les points fixes pour

et

Estimés grossièrement sans avoir calculé, des paramètres sont envisageables pour lesquels il existe deux points fixes.

Votre méthode matricielle avec linéarisation est adaptée pour calculer la stabilité des points fixes.

Le calcul des orbites est un peu plus difficile.

Pour l'instant, malheureusement, j'ai peu de temps pour le moment. Contactez-moi à nouveau.

L'espace d'état ressemble beaucoup à l'espace de phase.

La représentation de l'espace d'état est basée sur la notation matricielle. Lorsque j'ai cela, je peux utiliser les matrices individuelles (A = matrice système, B = matrice d'entrée, C = matrice de sortie, D = matrice de continuité) pour déduire des critères et éventuellement observer le modèle. Je peux aussi donner ce formulaire directement à Matlab et il sait l'attendre.

Revenons à ma question initiale. Comment intégrer mes non-linéarités dans ma notation matricielle et quel effet ont-elles ?
Pourquoi une représentation d'espace d'état / espace de phase ne peut-elle pas gérer les non-linéarités ? Est-ce exactement le problème - lequel j'ai maintenant?

Pour ce système, on peut mettre en place un DGL non linéaire simple, une variable serait l'angle d'inclinaison et on peut déterminer les trois points fixes. Une liste de l'équation matricielle et de la linéarisation, c'est-à-dire en négligeant les termes non linéaires, ne donnerait que le comportement du point fixe pour le ressort droit, mais pas le même pour les états stables à gauche et à droite. La linéarisation n'apporte donc qu'un aspect partiel, pas tout.

Ce qui est possible est le suivant : vous déterminez d'abord tous les points fixes. Ensuite, vous associez le DGL aux coordonnées d'un point fixe, c'est-à-dire que vous insérez de nouvelles coordonnées qui se rapportent à ce point fixe, par ex. B.

Ensuite, vous écrivez l'équation sous forme matricielle et la linéarisez.

Maintenant, vous obtenez à nouveau une équation matricielle linéaire, que vous pouvez peindre comme une "fonction de transfert". Mais il est très différent de celui du point fixe central.


De cette façon, vous pouvez déterminer le comportement aux différents points fixes pour les petites déviations. C'est ce qu'on appelle aussi le principe des petites vibrations.

Dans cet exemple, vous découvrirez que la gauche et la droite sont stables et un point fixe instable au milieu, ce qui est également illustré dans la pratique.

Les matrices sont des opérateurs linéaires par définition, elles ne conviennent donc que dans une mesure limitée aux équations non linéaires. Juste après la linéarisation. Ceci s'applique également aux méthodes qui sont liées à la matrice par écrit, telles que les fonctions de transfert graphique.

Un autre exemple est une balançoire où le renversement est autorisé. Le problème a un nombre infini de points fixes stables, infiniment stables.

Je ne sais pas combien de points fixes vous avez car cela dépend des paramètres. Il peut y en avoir potentiellement un maximum de 2. Si l'un est réel, l'autre doit l'être aussi.

maintenant je comprends lentement. Alors avec mes matrices puis-je oublier ça pour le moment ?

Mon autre approche :
Je modélise les DGL dans Simulink (essaye de le valider) - trouve les points fixes - linéarise autour d'eux - et peux ensuite réguler le système autour de ces points fixes ?


Est-ce que j'arrive aux points fixes avec un contrôle anticipatif ?

Brièvement plus loin pour ma compréhension:
Par exemple, si j'ai un couple résistant de 10 Nm et 12 V sur mon moteur, 5 Ampères et une vitesse de 20 tr/min sont réglés sur le moteur. Serait-ce alors un point fixe stable ?
Maintenant mon couple de charge augmente - ma vitesse diminue et mon ampère augmente, est-ce un autre point fixe ?

Là où j'ai encore un problème de compréhension - est-ce que je conçois alors mon contrôleur pour ce point fixe ? Il ne peut alors régler qu'autour de ce point fixe avec de petits écarts ou dois-je choisir une commande anticipatrice qui le pilote près du point fixe ?

Avec d'autres paramètres, le point fixe est ailleurs. Vous obtenez une dépendance très simple des points fixes sur les paramètres. Dans votre cas, la dépendance est non linéaire, ce qui a un impact sur le contrôle anticipatif. Je ne sais pas exactement comment on le choisirait, il faudrait aussi qu'il soit non-linéaire.

Vous avez un système quadratique. Vous avez donc deux ou pas de points fixes. Nous savons que l'un des deux est stable et l'autre est instable.

Ce qui est stable peut être trouvé avec le calcul matriciel.
L'essentiel à propos des systèmes non linéaires est que toutes les conditions initiales ne conduisent pas toujours au point fixe souhaité. Vous pouvez le lire sur le diagramme d'état. Malheureusement, un tel diagramme ne s'applique qu'à un seul ensemble de paramètres.

Il en va de même pour les perturbations. Si le système s'est installé et que vous le dérangez, en cas de perturbations importantes il peut arriver qu'il ne retrouve plus son état d'origine.

Exemple, je ne sais pas si cela s'applique à votre système : Votre moteur tourne de manière stable et est brièvement chargé avec un couple élevé. Puis il tourne soudainement avec une fréquence complètement différente ou la fréquence s'enfuit.

Enfin, il y a le cas où le système n'a pas du tout de point fixe, mais occupe plutôt une orbite. Cela voudrait dire que les choses changent constamment. Je pense que cela ne s'applique pas à votre système, il n'a pas d'orbite.

En principe, il y a quelque chose comme ça avec les amplificateurs lorsque des oscillations de rétroaction sauvages sont générées au lieu d'occuper le point de fonctionnement.


Malheureusement, tous les détails ne peuvent pas être résumés ici en détail. Les livres sur les systèmes dynamiques sont utiles.

@edit : point de travail inséré

J'ai maintenant le moteur à courant continu qui est censé faire tourner une plaque métallique au sol en cercle. Maintenant, j'ai jeté les non-linéarités de mon moteur, car je soupçonne que les non-linéarités du frottement entre les plaques métalliques et le sol métallique sont beaucoup plus influentes.

J'ai maintenant l'équation différentielle du moteur à courant continu et l'équation des moments de la plaque (Jcdotomega = M_ - M_) se déplaçant sur une trajectoire circulaire et avec (M_ = k cdot i ) lié. J'ai ( omega ) le disque comme sortie.

Me voici de retour sur le tuyau.
1.) Quand dois-je linéariser ? Quand j'ai trouvé un point de travail / point fixe ?
2.) Système sans pré-contrôle : dois-je alors effectuer deux analyses, une fois au point de fonctionnement et au début ? Je comprends maintenant pourquoi je linéarise - pour pouvoir faire une analyse autour du point de fonctionnement - mais pas quand. J'ai un système dynamique avec des conditions toujours différentes.

Pourriez-vous m'aider à nouveau?

Si j'ai bien compris, vous devez en fait le faire pour chaque ensemble de paramètres.

Malheureusement, c'est aussi le cas avec les solutions numériques. D'où l'analyse de l'espace des phases.

Dans des cas individuels, il est toujours préférable de comprendre le processus qualitativement avant de calculer beaucoup en vain.

merci, alors je sais maintenant comment procéder à peu près.

Je vais écrire quelle forme j'ai maintenant complètement. Avec les non-linéarités du moteur.


[ point_A = - frac i_A + frac <1>u_A - frac <1>(k_t oméga + k_y oméga ^ 2 i_A) ]
[ point < oméga> = frac <1>(k_m i_A - M_ cdot mu cdot oméga) ]
Supposons que l'équation du frottement soit correcte. J est l'inertie de la plaque.
Ce que je voudrais encore modéliser serait la dépendance à la température du moteur.


1.) Existe-t-il d'autres manières de linéariser ou de traiter les non-linéarités ?

2019-01-09 16:12 - holsteiner dans l'article No. 9 écrit :

Malheureusement, c'est aussi le cas avec les solutions numériques. D'où l'analyse de l'espace des phases.

Pouvez-vous développer sur ce sujet?
On résout l'équation différentielle numériquement avec les conditions initiales, non ?

À 1 : Il existe quelques méthodes pour les équations non linéaires, mais peu. Les théorèmes du point fixe sont toujours centraux. Ensuite, il y a le concept de stabilité, la méthode des petites oscillations. Il y a la notion des points critiques des bifurcations, des orbites et des attracteurs.

Je recommande un livre sur les systèmes dynamiques. Mais seulement à titre d'approfondissement, vous n'avez pas un problème aussi complexe.

Avez-vous déjà dessiné les diagrammes d'état pour différents paramètres ?

À 2 avec un diagramme d'état, vous obtenez une vue d'ensemble du comportement de votre système pour différentes conditions initiales mais uniquement pour un ensemble de paramètres.
Une solution numérique n'est jamais que pour une condition initiale et un ensemble de paramètres.

Avec des points instables, les chiffres deviennent également instables et peuvent livrer de la merde.

Peut-être que vous pouvez poster le diagramme d'état.

1.) oui j'ai un frottement de glissement dans mon moteur et je voulais le décrire avec la méthode LuGre, mais je n'ai pas encore trouvé comment appliquer la méthode à mes paliers lisses. Il ne trouve de la littérature que pour les modèles translationnels.

2019-01-10 16:47 - holsteiner dans l'article n. 11 écrit :

Avez-vous déjà dessiné les diagrammes d'état pour différents paramètres ?

Non, je ne l'ai pas encore fait. J'essaie de modéliser le problème plus précisément, puis de l'amener dans la représentation de l'espace d'état. Il me manque toujours les influences de la température et le frottement de glissement pour les paliers lisses du moteur. Je dois aussi décrire la plaque et son frottement sur le substrat métallique.

Si vous mettez un tel frottement de glissement dans l'équation différentielle, vous devez noter qu'il vaut également 0 à 0. Cela signifie que vous avez

$ F = -F_r $ = const pour $ v & lt0 $
$ F = 0 $ pour $ v = 0 $
$ F = + F_r $ = const pour $ v & gt0 $

Ceci ne peut être raisonnablement calculé pour un DGL que si le cas $ v = 0 $ n'est pas autorisé.

Mais comme je l'ai dit, je ne sais pas comment moduler le frottement pour un palier lisse, que ce soit en frottement de Stokes ou en frottement de glissement constant. Le frottement lié à l'écoulement est même quadratique avec v.

@Éditer:
Je dois d'abord lire le modèle Lund-Grenoble. Mais là, vous trouverez certainement quelque chose si vous regardez comment il est modulé dans les DGL.

LundGrenoble
À la page 10 se trouve un joli croquis.

oui, exactement, j'avais vu le travail aussi.
J'ai alors cherché une œuvre similaire qui était un peu simplement écrite.ici

J'ai essayé de modéliser le frottement de glissement avec l'équation 2.6 à la page 12, mais je ne suis pas sûr de pouvoir simplement décrire (F_N) avec (mcdot g). Où (m ) est la masse du rotor.

Je l'avais d'abord essayé, mais le couple généré par le moteur était toujours fortement réduit par les frottements. De là, il s'ensuit que mon moteur n'avait qu'une vitesse de (0,5 rad / s ).

Je n'ai pas non plus trouvé d'approche pour le frottement dynamique, sauf [ frac < tau> < tau_> = ( frac < omega> < omega_>) ^ alpha ].

Cette approche est issue d'un programme de modélisation physique, Dymola. ici Page 195


Le Ch & acirctelier

Henry Louis (1850-1936), professeur de chimie, Paris. Domaines de travail : Spéc. Chaleur des gaz, chimie des silicates, métallographie, mise au point d'un thermocouple (pyromètre L.C.), chim. Équilibre, formulation du principe de la plus petite contrainte, plus tard nommé d'après lui.

Principe de moindre contrainte

(principe Le Ch & acirctelier-Braunsches). Réf. Pour un principe formulé par H. L. Le Ch & acirctelier et K. F. Braun, qui qualifie la dépendance de l'équilibre chimique à des conditions plus incertaines. décrit. L'équilibre en conséquence, il se déplace toujours de telle manière qu'il échappe à la contrainte la plus nécessaire. Cela signifie, par exemple, que dans le cas d'une réaction associée à un changement de volume, une augmentation de la pression doit conduire à une diminution des ventes. A l'inverse, dans le cas d'une réaction associée à une diminution de volume, la conversion est augmentée en augmentant la pression : l'équilibre est atteint sous haute pression. décalé dans un sens. Le principe stipule également que dans le cas de réactions exothermiques, un apport de chaleur supplémentaire maintient l'équilibre. dans le sens des matières premières, dans le cas de réactions endothermiques dans le sens de la prod. Le principe Le Ch & acirctelier-Braun a été formulé en 1887, 20 ans après la loi d'action de masse.

Loi de l'action de masse

(Abr. : MWG). Loi qui détermine les conditions d'établissement des équilibres chimiques. Cette loi, formulée pour la première fois par Guldberg et Waage en 1867, se lit comme suit :

Avec un chim. État d'équilibre dans un système homogène, c'est-à-dire monophasé. est le quotient du produit, la concentration du produit de réaction. et la prod., la concentration des matières premières (réactifs) constante à une certaine température.

Un chem réversible. A une certaine température, la réaction s'arrête (état stationnaire, état d'équilibre, équilibre dynamique) lorsque le quotient de la prod. La concentration des produits de réaction et de la prod a atteint une certaine valeur numérique K caractéristique de la réaction (comme constante d'équilibre, moins souvent comme constante d'action de masse).

À l'état d'équilibre, la vitesse du processus et la décroissance du produit (c'est-à-dire la réaction de va-et-vient) sont égales. Cet état est indépendant de la quantité de substance utilisée et n'est influencé que par la pression et la température.

En général, selon le MWG chem. Réactions soit en augmentant la concentration des substances réagissant entre elles, soit en réduisant la concentration des produits de réaction. Dirigez-vous dans la direction souhaitée. Historiquement : L'idée de base du MWG était déjà correctement comprise par Berthollet (1799) et publiée en 1803 dans le livre `` Essai de statique chimique''.

Enthalpie de réaction

Changement d'enthalpie avec un chem. Réaction. Norme R. peut être calculé à partir des enthalpies standard de l'éducation. Pour plus de détails, voir chaleur de l'éducation.

Chaleur de l'éducation

Fait référence à la quantité de chaleur libérée (réaction exothermique) ou consommée (réaction endothermique) lorsqu'une connexion est établie à partir des éléments. Marquez la quantité de chaleur dégagée avec un signe moins. Les enthalpies standard de formation sont généralement tabulées à 25°C (298,15 K) et à la pression standard 1 bar (dans les travaux plus anciens 1 atm). Elles correspondent aux enthalpies de réaction standard de la réaction de formation, c'est-à-dire la réaction de formation du composé souhaité à partir des éléments dans leurs phases de référence. La phase de référence d'un élément est la phase thermodynamiquement la plus stable à pression standard (à une exception près : pour le phosphore, le phosphore blanc est utilisé comme phase de référence). Par définition, les enthalpies standard de formation des éléments dans leurs phases de référence sont nulles pour toutes les températures.

A partir des enthalpies standard de formation, on peut calculer les enthalpies standard de réaction pour toutes les réactions en utilisant le théorème de He & szlig.

Les réactions chimiques en phase homogène ne se déroulent jamais complètement, mais seulement jusqu'à ce qu'un état d'équilibre soit atteint dans lequel, en plus du produit de réaction. certains des réactifs sont également encore présents. Le même état final est atteint lorsque l'un des produits de la réaction. sort et le soumet aux conditions de la réaction de formation. Un exemple de c. G. et les réactions réversibles sont formées par la réaction entre la vapeur d'iode, l'hydrogène et l'iodure d'hydrogène étudiée par Bodenstein (1897). Comme la réaction est réversible et peut se dérouler dans les deux sens, il vaut mieux ne pas utiliser de signe égal ou de flèche simple, mais plutôt deux flèches opposées (flèches d'équilibre) entre les côtés de la réaction (H2 + I2 & eacute 2HI).

Dans un système fermé, il y a toujours un équilibre. une. Il s'agit d'un équilibre dynamique dans lequel les réactions en avant et en arrière ont lieu à la même vitesse. Dans le c. Ainsi, par unité de temps, autant de molécules de produit apparaissent que celles-ci se désintègrent en molécules de réactif.La vitesse de la réaction globale est donc en c. G. égal à zéro. Le c. G. avec un certain retard, qui s'appelle la relaxation. La description thermodynamique du c. G. à pression constante et à température constante.S'effectue en utilisant l'enthalpie libre de réaction. La variation de l'enthalpie libre de réaction pour une mole de conversion est égale à zéro si la réaction a lieu à la composition d'équilibre du mélange réactionnel.

La constante d'équilibre thermodynamique K dépend de la température. En changeant la pression, K ne peut pas être modifié, mais les activités d'équilibre des participants à la réaction peuvent changer en maintenant la température constante. Par exemple, une augmentation de la pression dans une réaction gazeuse entraîne une diminution/augmentation de la quantité de produits/éduits. Il s'agit d'un cas particulier du principe de Le Ch & acirctelier de la plus petite contrainte, selon lequel une personne de c. G. le système en place réagit à une perturbation de telle manière que l'effet de la perturbation soit maintenu aussi faible que possible. D : h. car le système essaie de compenser l'augmentation de pression en réduisant le nombre de moles dans la phase gazeuse. C.G. jouent un rôle essentiel dans tous les domaines de la chimie :

en dissociation thermique ou électrolytique,

en gravimétrie (produit de solubilité),


Spécialisation : Dépendance en température des produits cibles - chimie et physique

Eh bien, si nous parlons déjà des relations, n'y a-t-il rien avec lequel les deux types de réacteurs continus KIK et IR puissent être « confondus » ?

Mais il y a ! À propos du mot magique « circuits de réacteur ». Nous considérons ici à l'avance la connexion en série des chaudières à agitation continue. Ces dispositions sont appelées cascades de cuves agitées ou simplement cascades.

Imaginons, purement optiquement, la connexion en série de plus en plus de récipients de mélange de même volume - mais de telle manière que le volume total = n fois le volume individuel reste constant. Les bouilloires deviennent de plus en plus petites à mesure que le nombre de bouilloires augmente, et le « collier de perles » devient plus long et plus mince ». A quoi cela nous rappelle-t-il ? Ces petites cellules de disque ne sont-elles pas comme dans l'IR ? Peut-être pouvons-nous dire qu'une cascade avec n chaudières à circulation s'approche du tuyau d'écoulement avec un nombre croissant de chaudières. Oui nous pouvons !! Et il ne faut pas cacher à ce stade qu'une cascade avec quelques chaudières (environ 3 pièces environ !!) est souvent suffisante pour un bien meilleur résultat de réaction.

Alors maintenant, le moment de vérité arrive et je dois admettre que je suis maintenant vraiment plongé dans l'encre. Comment suis-je censé vous transmettre la moitié de la chimie physique en mots et éventuellement « un peu plus en images » ? Mes collègues professionnels seront désormais ravis de voleur, pourquoi s'est-il « plein la bouche » au début ! Les sujets suivants sont à discuter :

  • Stœchiométrie des réactions chimiques
  • Thermodynamique des réactions chimiques
  • Cinétique des réactions chimiques
  • Mécanisme des réactions chimiques

J'ai maintenant au moins une demande à mes collègues : soyez indulgents avec moi !! Ceux qui me connaissent penseront : "Eh bien, il n'a jamais été un 'mauvais' chimiste", et je suis sûr que vous avez raison. Mais souvent le 'stupide' peut mieux l'expliquer à l'autre !! (Voir la série ". pour les nuls" dans la littérature informatique). Et pour vous consoler, cher lecteur, l'autre peut aussi être plus « intelligent ».

Alors allons-y: Mécanisme de réaction

Commençons immédiatement par un aperçu du micro-monde des atomes et des molécules et essayons de comprendre le terme mécanisme de réaction. Nous allons être un peu « sage modèle ». Vous savez tous aujourd'hui que la matière est constituée d'atomes et de molécules. Imaginons maintenant, comme modèle, que nous ayons un énorme essaim de boules microscopiques dans un récipient fermé rempli d'hélium pur (gaz noble - & gt balloon gas) - et c'est les atomes d'hélium. Ils « bourdonnent » dans le conteneur et la vitesse à laquelle ils bourdonnent et la fréquence à laquelle ils « entrent en collision » sont déterminés par la température (et « dissipent la pression » - pour être précis !!), plus il fait chaud approches », plus les atomes tournent vite et plus ils entrent en collision.
Avec la « loupe spéciale », un mélange de gaz pourrait ressembler à ceci :

Enregistré dans le laboratoire Crazy Machines de l'Université du Chaos de Hohenlohe.
Je pense que tout le monde a tellement d'imagination qu'ils ne le prennent pas au sérieux. Les « plaques à ressort » au sol sont pour ainsi dire des sources d'énergie thermique, alors que sur les parois rigides, il n'y a que l'inversion de quantité de mouvement.

Ensuite, nous prenons un bécher plein d'eau. Les molécules d'eau « bourdonnent » maintenant par ici. L'eau est H 2 O, c'est-à-dire une molécule qui est « bricolée » à partir de 2 atomes d'hydrogène et d'un atome d'oxygène - les atomes sont également à nouveau modélisés comme des boules, mais la molécule comme une sorte d'« haltère » (plié ou étiré) constitué de billes collées entre elles (billes = atomes d'hydrogène et atomes d'oxygène). Dans une réaction, des fractions de molécules (c'est-à-dire des agrégats de sphères) vont maintenant « rencontrer » avec d'autres fractions ou avec des atomes (c. molécule). Les agrégats de billes (molécules) peuvent également simplement se désintégrer en fractions - comme des agrégats plus petits - ou simplement en billes. Le « mécanisme de réaction » nous dit comment tout cela se déroule. Remarque : l'équation de réaction stoechiométrique décrite ci-dessous ne dit initialement rien sur le mécanisme, c'est-à-dire le déroulement de la réaction.

On peut maintenant catégoriser différents types de réactions et de mécanismes. Nous ne voulons pas entrer dans autant de détails sur toutes les réactions chimiques que nous énumérons et discutons maintenant tous les mécanismes et sous-étapes mécanistes des réactions en chimie inorganique et organique. Important pour le génie des réactions, car décisifs pour le « résultat de la réaction dans le réacteur », sont avant tout (et plus globalement, pour ainsi dire) : réactions. Vous pouvez peut-être imaginer que si nous « cuisons une soupe avec de nombreux ingrédients » dans un réacteur, il peut se passer beaucoup de choses là aussi. Une substance peut être formée dans une étape de réaction, mais réagir immédiatement après pour former la substance suivante, alors nous aurions, par exemple, une réaction ultérieure. Cependant, une substance A pourrait également se désintégrer et former la substance B sur un chemin de réaction, mais en même temps aussi la substance C sur un autre chemin - nous aurions alors une réaction parallèle.

Et ici, nous voyons à nouveau l'importance de la nature de la réaction chimique pour le génie réactionnel. Supposons qu'il y ait une réaction parallèle et que nous ne voulions que le produit B. Quand le réseau parallèle peut-il être « poussé » davantage dans la direction de B - le choix du réacteur peut-il avoir une importance ? Ou : nous avons une réaction ultérieure et voulons « intercepter » exactement le produit intermédiaire - que faisons-nous ?

Stœchiométrie et Thermodynamique

La plupart d'entre vous ont appris à l'école :
HCl + NaOH & lt - & gt NaCl + H 2 O. C'était la stoechiométrie, ou, pour le dire crûment, « la théorie des ensembles de la chimie », ou le « comptable du bilan de masse de la réaction », parce que la masse ne peut pas simplement être perdu. En lisant vers la droite, cela signifie : si je laisse le poids moléculaire en grammes d'acide chlorhydrique réagir avec le poids moléculaire en grammes d'hydroxyde de sodium, j'obtiens le poids moléculaire en grammes de chlorure de sodium = sel de table (et eau). Mais maintenant, nous avons une double flèche dans l'équation de conversion stoechiométrique. Je peux aussi lire vers la gauche, si je me trompe d'une manière ou d'une autre sur le poids moléculaire du sel de table (dans l'eau.) marcher !!). La thermodynamique de la réaction est responsable du fait que ce n'est "pas si facile". La thermodynamique est le « commissaire à l'énergie » de la réaction chimique. Il détermine si une réaction a lieu du tout dans l'un ou l'autre sens et dans quelle mesure - on parle ici d'équilibre entre la réaction de va-et-vient, ou de position d'équilibre). De plus, par exemple : - quelle quantité de chaleur (plus généralement : énergie, par exemple aussi énergie lumineuse) est libérée ou utilisée / liée. Les mots clés à mentionner ici sont l'équilibre de la réaction, la chaleur de réaction (enthalpie de réaction) et l'entropie de la réaction (entropie de réaction). (En termes simples, l'entropie est une mesure de la probabilité qu'un processus (par exemple une réaction chimique) aille dans une direction attendue. de l'espace vise un maximum, - ici l'entropie est utilisée comme mesure de l'ordre / du désordre dans le système.

Cinétique de réaction

J'ai déjà mentionné au début que la vitesse de la réaction joue un rôle essentiel pour la performance spécifique du produit - c'est-à-dire le temps qu'il faut pour une réaction. Le domaine qui traite du calendrier des réactions est la cinétique de réaction. La vitesse de réaction s'entend comme l'évolution temporelle d'un composant, dans le cas des produits on parle de « vitesse de formation », dans le cas des éduits de « vitesse de consommation ». Dans les études expérimentales de l'évolution dans le temps des concentrations des composants de la réaction au cours d'une réaction, certaines lois pourraient / peuvent être déterminées. La vitesse de formation ou de consommation dépend souvent de la concentration de cette substance et/ou de la concentration d'autres composants, - et il s'avère que cette dépendance "fonctionne" avec la 0ème à généralement pas plus de la 3ème puissance de la concentration, - Dans le même temps, cependant, il existe également un facteur appelé constante de vitesse - la mesure dans laquelle la concentration "fonctionne". La constante de vitesse est donc typique d'une réaction et détermine fondamentalement à quelle vitesse elle peut se dérouler. La puissance avec laquelle la concentration « fonctionne » s'appelle l'ordre. On parle, par exemple, de réactions du 1er ou du 2ème ordre. Maintenant, les chimistes savent que dans des réactions simples, souvent "clairement" nommées - dans les réactions, par exemple du 1er ordre, un mécanisme de réaction dit "monomoléculaire" est présent, dans lequel une seule molécule, pour ainsi dire, joue le rôle principal. C'est souvent le cas, par exemple, lorsqu'une molécule A se désintègre simplement et forme B. Il existe également de nombreuses réactions « bimoléculaires » dans lesquelles, selon un mécanisme soigneusement étudié, les deux composants A et B réagissent entre eux (par exemple lorsque les molécules entrent en collision) et l'on « mesure » une cinétique de réaction qui est du 1er ordre par rapport à à A et de 1er ordre par rapport à B. On dit alors que l'ordre de réaction vis-à-vis des deux composants est de 1 chacun, mais que "l'ordre de réaction du pain" est de 2. Donc : Molécularité et ordre sont les mêmes pour des réactions simples, ou plutôt sans ambiguïté. Malheureusement, ce n'est que le cas exceptionnel idéal. Comme déjà mentionné ci-dessus, les réactions chimiques peuvent être des réseaux complexes de réactions partielles « mécanistes » et il est en fait plausible que les relations cinétiques résultantes deviennent plus complexes en termes de formules, et même des ordres de réaction avec des exposants négatifs et brisés peuvent se produire. Cela peut être démontré formellement si l'on dérive des formules de cinétique de réaction pour les séquences de diverses sous-étapes mécanistes - même si celles-ci étaient toutes « librement conçues ». Comment évaluer tout cela et comment régler l'affaire ? Une chose est sûre : les réactions chimiques se déroulent selon certains mécanismes. En conséquence, nous « voyons » (à travers des mesures) une formule pour la cinétique de la réaction en cours. Dans le cas de réactions simples, ces données cinétiques sont en accord avec un mécanisme - dans ce cas la plupart du temps également recherché. Dans les réactions complexes, nous ne pouvons mesurer la cinétique de la réaction que dans certaines circonstances, mais nous ne savons rien des mécanismes qui se déroulent en détail - c'est la tâche des « générations » de chimistes de rechercher cela de plus près.


Le lien suivant est recommandé pour approfondir les connaissances dans le domaine de la cinétique des réactions chimiques (Réf. 11) :
Projet logiciel physico-chimie / principes fondamentaux des procédés (cinétique) Prof. Dr. Gerd Hradetzky

Maintenant, nous sommes allés un peu plus loin avec « l'essence » de la réaction ! La vitesse de la réaction n'est pas seulement donnée par le type de réaction - représenté par la constante de vitesse de réaction - mais les concentrations actuelles des divers composants impliqués jouent également un rôle. La loi de ceci nous donne l'équation cinétique de réaction. Ceci peut être déterminé expérimentalement. Il est même très plausible de supposer qu'en termes de technologie de réaction, nous obtiendrons plus grâce au « contrôle des concentrations » dans le réacteur qu'à travers la constante de vitesse, qui est normalement une propriété de la réaction qui est difficile à modifier.

A ce stade, une sorte de recommandation littéraire très particulière : si mon style n'était pas encore assez « désinvolte » pour vous en ce qui concerne les explications sur la « nature de la réaction », c'est-à-dire si vous vous attendiez à un peu plus de « cartoon » , alors je recommande le livre de dessins animés américain 'The Cartoon Guide to Chemistry' de L. Gonick et C. Criddle, Literature / 9 /. Le seul point que je voudrais donner dans ce contexte, cependant, est que je suis d'accord avec la critique du livre dans le GdCH-Nachrichten selon laquelle l'apprenant absolument non préparé devrait être quelque peu submergé par le livre - il est plus destiné aux personnes qui ne le tout veut l'intérioriser à nouveau d'un point de vue différent, plus 'moody' - c'est alors vraiment bien.

Oh mon Dieu, à cause du pur "laisse-moi aussi", j'ai presque oublié l'influence physico-chimique la plus importante sur le processus de réaction, la température !! D'une part, la température influence la position de l'équilibre via la fameuse formule de dépendance à la température des équilibres chimiques, et donc la mesure dans laquelle la réaction se déroule dans le sens souhaité (connaissez-vous la formule ? Sinon, ouvrez le manuel de chimie physique dès que possible). De plus, la valeur de la constante de vitesse de réaction dépend de façon exponentielle de la température via l'équation d'Arrhenius. Il n'est donc pas surprenant qu'un chapitre supplémentaire doive être consacré au contrôle de la température et au bilan thermique dans les réacteurs.

Mais considérons d'abord tous les problèmes liés à la réaction pour le fonctionnement isotherme dans ce qui suit - c'est-à-dire à température constante.

Avez-vous déjà des « symptômes de sevrage de formule » ? Ensuite, nous pourrions à ce stade formuler quelques équations de réaction formelles - donc avec A, il y a B et C etc. et quelques expressions cinétiques qui pourraient nous être utiles plus tard ! Il serait également logique à ce stade d'expliquer les termes : conversion, rendement et sélectivité. Je me suis demandé si je devais conserver l'apparence du "sans formule" en créant des liens vers des images avec le contenu respectif, puis le tout est "caché". Mais en avons-nous besoin ?

concentration
anglais concentration
c i = n i / V i = i ème composant
n = nombre de moles
Concentration du composant i = nombre de moles de i par unité de volume, par exemple mol / l
Ventes
anglais conversion
U i = (c io -c i) / c io
U i = (n io -n i) / n io
O
= au début de la réaction, i = i ème composant à l'instant présent
'Diminution' du composant i par rapport à la 'quantité' de i au début de la réaction
rendement
anglais rendement
A ik = (c io -c i) / c ko O
= au début de la réaction, i = i ème composant (produit) à l'instant présent
k = référence éduct
Montant du produit basé sur le montant initial de l'educt
Sélectivité
anglais sélectivité
Sik = Aik / Uik i = i ème composant (produit) à l'instant présent
k = référence éduct
quel est le rendement du produit i basé sur la conversion du matériau de départ de référence
Rendement espace-temps = performance spécifique du produit m P / (t R. V R) m P = masse de produit, t R = espace-temps (temps de réaction),
V R = volume du réacteur
Quantité de produit par espace et temps

Remarque : certaines des formules ne sont pas tout à fait correctes, elles ne s'appliquent en fait qu'aux réactions 1/1 - les rapports stoechiométriques sont manquants (voir par exemple la littérature / 1 /, / 2 / u. / 3 /)

Quelques notions générales sur la cinétique de réaction

Vitesse de réaction. Laissez notre « enseignant virtuel » formuler une formule générale pour l'équation différentielle d'une approche cinétique de réaction simple. Vitesse de réaction (note : lien non pas vers l'affichage de la formule 'déguisée', mais vers gimmickry !!) - retour avec navigateur-retour.
La vitesse de réaction, à assimiler à l'augmentation ou à la diminution temporelle différentielle d'un composant, dépend d'une constante de vitesse de réaction, ainsi que des concentrations des composants et de leurs exposants d'ordre (c'est-à-dire encore : r = -dc / dt = k * C n ). Les solutions de telles équations différentielles aboutissent généralement toujours à « certaines » fonctions exponentielles. / Pour les initiés : je voudrais « appuyer » (au moins à ce stade) sur les détails plus précis de la formule (par exemple, la dépendance de la dimension de la constante de vitesse sur l'ordre, montrant les chemins de solution pour ces équations différentielles cinétiques, etc. ) ./

Réactions simples de 1er et 2ème ordre

L'évolution temporelle de la concentration des composants au cours d'une réaction est obtenue en tant que solution des équations différentielles cinétiques (vous savez : dans le cas le plus simple : séparez --- & gt intégrer !!).

Exemple : réaction simple du 1er ordre :
A & gt B Équation différentielle : - d CA / dt = + d CB / dt = k * CA ---- Solution : CA = C Ao * e (-kt) = courbe de décroissance exponentielle pour la composante de sortie A. (la cours de CB est donné par (C Ao - CA) = courbe de montée exponentielle).

Si l'ordre de réaction était 2, on aurait l'équation différentielle r = k * C 2

(cherchez la solution 'fermée' de cette équation différentielle !!)

La figure suivante montre la courbe de concentration du composant A (courbe de désintégration) dans une « simulation en temps réel » (réalisée dans Agilent (anciennement Hp) -VEE) pour une telle réaction de premier et de deuxième ordre.

la courbe rouge correspond à la réaction de 1er ordre, la courbe bleue à la réaction de 2ème ordre.

Vous pouvez voir que jusqu'à une "intersection", la concentration décroît plus rapidement avec une réaction de 2ème ordre, - après l'intersection, cependant, plus lentement que celle de la réaction de 1er ordre. Cela peut être vu encore plus clairement dans l'image suivante, dans laquelle les vitesses de réaction actuelles sont également affichées.

Cette figure montre les courbes de concentration pour une réaction de 1er ordre (bleu clair) et pour une réaction de 2nd ordre (jaune), ainsi que les courbes des vitesses de réaction instantanées pour la réaction de 1er ordre (rouge) et pour la réaction de 2nd ordre ( bleu foncé) illustré. Les deux premières courbes sont une répétition de l'image ci-dessus.

Vous pouvez voir sur cette image que la vitesse de réaction de la réaction de 2ème ordre jusqu'au "point d'intersection" est plus élevée que celle de la réaction de 1er ordre et ensuite la situation est inversée. D'où est ce que ça vient ? Pouvez-vous vous expliquer cela? un peu d'aide : discutez de la fonction Y = X 2, de préférence par rapport à y = X 1 !!

Étant donné que les réseaux de réactions plus complexes sont composés de réactions d'équilibre, parallèles et séquentielles, nous souhaitons discuter brièvement de ces types de réactions de base.

une simple réaction de suivi sans étapes partielles réversibles est par exemple :
A - & gt B - & gt C avec les constantes de vitesse k 1 ('de A à B') et k 2 ('de B à C')

Les approches suivantes peuvent être formulées comme des approches cinétiques de réaction :
dc A / dt = -k 1 c A
dc B / dt = k 1 c A - k 2 c B
dc C / dt = k 2 c B

A partir de la figure suivante pour les courbes de concentration de A, B et C, on peut voir que le rapport k 1 / k 2 les influence clairement.

dans la figure sont : I = composant A, II = composant B, III = composant C. La figure a.) s'applique à k 1 = k 2, la figure b.) à k 1 = 20 k 2 et la figure c .) pour k 1 = 1/28 k 2.

en résumé : la concentration du produit intermédiaire B a un maximum lorsque k 1 & gt k 2 ou au moins k 1 = k 2. Vous pouvez également voir que très peu de B est obtenu lorsque k 2 & gt & gt k 1. Dans ce cas, nous aurons peu de succès avec les moyens réactionnaires de gestion de la concentration. Nous devrons changer quelque chose dans la «chimie» du processus, par exemple élaborer un processus catalytique qui favorise la formation de B, ou il peut être possible d'influencer favorablement k 1 / k 2 en choisissant la température de réaction.

Réactions d'équilibre

On pourrait considérer en passant la réaction d'équilibre la plus simple A & lt- & gt B comme un cas particulier de la réaction subséquente A - & gt B - & gt A. Ainsi, les résultats d'une considération cinétique ne seront pas radicalement différents.

on considère : A & lt- & gt B avec k 1 (réaction avant) et k 2 (réaction arrière) :

si on part de c B, 0 = 0, B est produit jusqu'à ce que la conversion maximale U A, max soit atteinte. Ceci est déterminé par la constante d'équilibre thermodynamique K = k 2 / k 1. Pour calculer le chiffre d'affaires maximum, on écrit :

r A = -dc A / dt = k 1 c A - k 2 c B

et remplacer les concentrations par U A :

c A = c A, 0 (1-U A)
c B = c B, 0 U A

l'équation de taux devient alors :

dU A / dt = k 1 (1-U A) - k 2 U A

c'est la conversion maximale en B pour cette réaction (en fin de compte le point B max dans la réaction suivante ci-dessus !!).

À quoi cela sert-il pour un guide de concentration ultérieur? nous ne pourrons exécuter notre réaction que jusqu'au temps de réaction qui équivaut à la conversion maximale.

Réactions parallèles

un cas très simple de réaction parallèle est : A - & gtB parallèle à A - & gt C, une réaction parallèle irréversible. Les deux réponses sont concurrentes. Du point de vue de la cinétique de réaction, le taux de formation du produit correspond au rapport des vitesses de réaction des deux branches concurrentes et donc des constantes de vitesse et des ordres de réaction de celles-ci. Il peut être formellement dérivé :

kinet. Équations d'une réaction parallèle simple

Pour le même ordre de réaction des deux branches, par exemple 1er ordre, c'est-à-dire avec n = m, on peut dériver :

Super formule
concentration relative du produit en B
c B / c A, 0
c B / c A, 0 = (k 1 / (k 1 + k 2)) * U A
concentration relative du produit en C
c C / c A, 0
c C / c A, 0 = (k 2 / (k 1 + k 2)) * U A
Sélectivité à B S B S B = k 1 / (k 1 + k 2)
Sélectivité à C S C S C = k 2 / (k 1 + k 2)
Rapport de produit B à C
c B / c C
c B / c C = k 1 / k 2

Le cas d'ordres différents doit être discuté discrètement avec les données disponibles. Pour la gestion de la concentration, la concentration actuelle de A joue toujours un rôle majeur. Pour la compétition d'ordre inférieur (par exemple, premier) avec un ordre supérieur (par exemple, deuxième), des considérations similaires s'appliquent à celles de la comparaison ci-dessus des réactions non concurrentes (y = X 2 et Y = X 1).

Les exemples donnés devraient être utiles pour la discussion ultérieure de l'optimisation axée sur les ventes ou de la gestion de la concentration. Quelques autres ajouts suivront bientôt. En attendant, ça continue :

Prenons un œil de «microscope» dans un réacteur «jusqu'à un site de réaction (imaginaire) (par exemple un cube avec la longueur d'arête de quelques molécules) où les molécules droites se réunissent pour la réaction. Une fois que les molécules de réactif se sont « réunies » pour former des molécules de produit, il n'y a pas de nouvelles molécules de réactif pour le moment. Si des réactions chimiques « habituelles » (pas ultra-rapides) dans une phase fluide bien mélangée (gaz ou liquide, éventuellement agitée / circulée en plus) dans des réacteurs de la taille d'un laboratoire ont généralement lieu. transport des réactifs vers le site de réaction beaucoup plus rapidement que la réaction (rappelez-vous : mouvement moléculaire brownien). Oui, - une réaction dite « homogène » se caractérise précisément par le fait qu'aucun épuisement matériel spatial ne se produit. Mais !! La chimie physique doit offrir des réactions « homogènes » dans lesquelles l'appauvrissement spatial peut être démontré. Par exemple, les réactions chimiques « oscillantes » découlent du fait que même dans une phase homogène, différentes concentrations se produisent localement (mais bien sûr aussi au fil du temps), qui peuvent alors parfois être également reconnues par des effets de couleur. Des exemples bien connus sont la réaction de Belousov-Zhabotinskii (voir, par exemple : Angew. Chem. 90,1-16 (1978)) et la réaction de Briggs-Rauscher (voir, par exemple : J. Chem. Educ. 50, 496 (1973)). Comment quelque chose comme cela se produit est quelque peu difficile à expliquer : le réseau de réaction conduit à un système d'équations différentielles cinétiques de réaction couplées (mécanismes de rétroaction dynamique), qui (au cours de la concentration) est « capable de vibrations » - donc en fait même une chose « purement mathématique formelle », comme eux en physique en mécanique, par exemple dans les pendules, en acoustique et en technologie à courant alternatif peut être observée de manière similaire. Mais si je maintenant - sérieusement - un tel bécher dans lequel une telle réaction oscillante a lieu avec un agitateur ultra-rapide, je peux réussir à "éliminer" l'effet au moins en termes de localisation (pas nécessairement aussi en termes de temps !!). En revanche, imaginons un appareil de réaction presque aussi haut qu'un clocher d'église. Si nous effectuons une réaction « non mélangé/non mélangé » de manière homogène dans cet appareil, nous trouverons une masse réactionnelle qui n'est plus correctement mélangée de manière homogène dans tout le volume du réacteur en raison des « effets de thermosiphon » et autres.

D'un point de vue technique, le terme « macro mélange », qui est utilisé en allemand par plusieurs « écoles » dans le domaine de la chimie technique, est très important. Ceci est destiné à signifier le mélange qui prévaut dans la «zone macroscopique» - pour le mettre avec désinvolture dans la zone qui peut être observée à l'œil nu. Pour ce brassage on peut postuler deux cas limites :

  • le « mélange complet » (ou « mélange complet en retour »), dans lequel aucune inhomogénéité ne peut être observée à l'œil.
  • le « non-mélange complet » (ou « non-mélange complet ») - où l'œil (bien sûr que sous certaines conditions, c'est-à-dire : théoriquement) « voit » des zones strictement délimitées.

En pratique, il existe désormais un certain « degré de rétro-mélange » entre ces deux cas limites. Prenons maintenant, par exemple, le réacteur idéal AIK. Nous le savons déjà, et il ne nous reste plus qu'à le formuler selon la « nomenclature » que nous venons de faire : il est (spatialement) « complètement mixé ». La même chose s'applique au KIK (sûr ?). Mais qu'en est-il du réacteur tubulaire idéal ? Par précaution, on pourrait préférer partir de la définition : chacun des « éléments fluides » = disques n'échange pas de matériaux avec ses voisins. D'après notre 'nomenclature', c'est : 'complètement sans dos mélangé'

Encore une fois, - comprenez-vous pourquoi le degré de rétro-mélange est important pour le résultat de la réaction ? Non ? Imaginez alors un pot de réaction dans lequel « dans un coin » il n'y a pratiquement pas d'éduits, dans « l'autre coin » il « en regorge ». Dans la zone pauvre en éduit, la vitesse de réaction sera généralement très faible, - il n'y a "presque plus rien". En revanche, l'autre coin.

Est-il maintenant possible de découvrir quelque chose sur le rétro-mélange dans les appareils de réaction à travers des expériences ou des calculs ? Nous avons parlé d'« observation avec l'œil » lorsque nous avons décrit les termes macro-mixage et rétro-mélange. Ne serait-il pas concevable que nous puissions obtenir des informations grâce à des essais de couleurs (pensez à la recherche de grottes sous-marines, par exemple). On parle alors de traceurs de couleur. Eh bien, et si les traceurs de couleur fonctionnent, ils pourraient également fonctionner avec d'autres traceurs, tels que les substances radioactives et bien d'autres. marche!! Et nous voici exactement à la transition vers le « comportement de temps de résidence » des réacteurs.

Cette caractérisation du comportement de macromélange est judicieusement appelée en anglo-saxon « pattern de contact » : le comportement du temps de résidence d'un réacteur caractérise son modèle de contact.

Mais puisque nous avons parlé du terme macro-mixage ci-dessus, nous devrons également parler du terme 'micro-mixage'. Que veut-on entendre par ce terme ? Eh bien, pour être cohérent, nous devrions entendre par là tout ce qui se situe dans la plage « microscopique » à « submicroscopique ». Et nous le faisons aussi !! Nous voulons comprendre par un « fluide complètement micro-mélangé » simplement un système « dispersé moléculairement », par exemple une solution de sucre ou une solution saline. Mais que serait un fluide totalement « non micromélangé » ? Comprenons par là un fluide constitué d'éléments microscopiques, tels que des billes, qui n'ont aucun échange matériel avec leurs voisins. On pourrait également supposer un « essaim » d'AIK microscopiques comme modèle. Cet « état de séparation » est également appelé « ségrégation complète ». Eh bien, c'est un modèle « très sympa », mais y a-t-il quelque chose comme ça (au moins suggéré) en réalité ? - Pensez aux émulsions de gouttes de lait ! Les émulsions sont un bon exemple pratique de fluides séparés. Certes, l'état de ségrégation complète est encore une « chose idéale », mais en cas d'échange partiel de substances (coalescence et formation de nouvelles gouttelettes) on peut parler d'un degré « individuel » de ségrégation.

Normalement, le réacteur n'a aucune influence sur l'état du micromélange. Théoriquement, bien sûr, un fluide qui s'écoule à travers un réacteur tubulaire idéal serait un fluide ségrégué (ceci 'automatiquement' à cause des disques différentiellement petits !!). Mais il n'y a pas d'IR. De plus, le «concept de macro-mélange complètement non mélangé» et le «concept de micro-mélange complètement séparé» coïncident, pour ainsi dire. En termes pratiques, cependant, le réacteur tubulaire est simplement « non rétromélangé » à un degré élevé et cette propriété n'a rien à voir avec les propriétés du fluide dans la plage de micromélange, le fluide peut être dispersé ou séparé au niveau moléculaire. Mais ce sont plus ou moins des formalismes.
On peut voir que le macro-mélange dans le réacteur est une chose pertinente - mais le micro-mélange a-t-il également une importance pratique ? Ma réponse: C'est beaucoup moins important, mais dans les réactions avec des émulsions, des dispersions et des fluides similaires, l'état de micromélange peut devenir important en termes de technologie de réaction (domaine principal de la chimie macromoléculaire - par exemple les polymérisations en émulsion !!). Pouvez-vous en quelque sorte visualiser l'état de « ségrégation » (complète) lorsque vous ne pouvez pas le voir à l'œil nu ?

Dans le cas de nombreux fluides ségrégués, l'effet de diffusion Tyndall peut être utilisé pour montrer que des systèmes « non moléculairement dispersés » sont présents, c'est-à-dire « rendent la ségrégation visible », pour ainsi dire.

Enfin, il y a quelques choses à dire sur la nomenclature en anglo-saxon et aussi dans diverses « écoles européennes » pour qu'il n'y ait pas de confusion !
Souvent - surtout en anglo-saxon - l'état de ségrégation est appelé « macro-mixed fluid » ou mieux « macro-fluid ». Il n'y a en fait rien de mal avec cette dernière désignation. Ce serait alors microfluide = moléculairement dispersé et macrofluide = ségrégué. Les « utilisateurs » de cette nomenclature n'ont alors plus de noms appropriés pour l'état mixte, que nous appelons « l'état macro-mixte visible à l'œil ». Les anglo-saxons s'aident alors du terme (à mon avis aussi très approprié) 'contacting pattern', qui n'est pourtant pas si 'universel' - et ils parlent alors de back-mixed et not-backmixed dans la suite. D'une manière ou d'une autre, cela fonctionne, mais personnellement, je trouve la catégorisation en "macro mixage" et "micro mixage" avec les "sous-tiroirs" respectifs complètement et complètement - pas aussi logique et systématique. Pour vous en tant que lecteur, il est important de comprendre ce que veut dire l'auteur en question, car finalement tout est une question de définition, car les phénomènes ne sont bien sûr pas différents (car les naturalistes ne peuvent malheureusement pas "conquérir la bête de la nature" !)

fichier pdf de cette partie 2 (environ 560 k), fév. 2009

N'hésitez pas à me dire si ce matériel vous intéresse ! Ce serait aussi bien si j'étais au courant des erreurs.



Commentaires:

  1. Howel

    Je suis désolé, rien de ce que je ne peux pas vous aider. Mais je suis sûr que vous trouverez la bonne solution.

  2. Adel

    Notamment, c'est la réponse drôle

  3. Beorht

    Vous n'êtes pas correcte. Je suis sûr. Je vous invite à discuter.

  4. Guifi

    Quelque chose que mes messages privés ne sont pas envoyés, une erreur ...



Écrire un message