la tsf sans mathematiques

 

I N I T I A T I O N
AUX PHENOMENES
RADIO-ELECTRIQUES

 

------- 6ème édition, 1935 -------


Etienne CHIRON, éditeur, 40, Rue de Seine - PARIS (6e)
Numérisation et mise en page, Pascal Chour - 2012

AVANT-PROPOS

Est-il possible de comprendre le mécanisme des phénomènes mis en jeu dans la radiotéléphonie, sans avoir recours aux abstractions mathématiques ? Peut-on imaginer ce qui se passe dans un tube à plusieurs électrodes, comment se comporte un circuit oscillant, la membrane d’un haut-parleur ? Est-il possible de saisir le rôle d’un transformateur de moyenne fréquence ?

Je crois qu’on peut répondre affirmativement à toutes ces questions. Bien mieux, je crois, sans paradoxe, qu’il est préférable, pour le but cherché, de ne pas avoir recours au calcul différentiel et intégral.

Loin de moi la pensée de nier l’utilité de la Physique mathématique. C’est, au contraire, une branche scientifique dont l’importance croît chaque jour.

Mais, mon ambition n’est point de faire des découvertes.

Je n’espère point que les détours d’un savant calcul me conduiront vers une solution nouvelle de la reproduction idéale. Le problème qui se pose est le suivant :

Voici un récepteur à cinq tubes. On y branche un collecteur d’ondes d’une part, et, d’autre part, on le relie au secteur électrique. Comme résultat, il donne de la musique. Les vibrations acoustiques initiales ont été produites à l’Opéra de Vienne... Comment cet effet admirable a-t-il pu se réaliser ? Faut-il, comme beaucoup, admettre tout simplement que c’est un miracle et rendre grâce au Dieu des physiciens ? Ou peut-on espérer, au contraire, avoir une idée exacte des phénomènes qui sont intervenus entre le moment où le ténor a poussé son contre-ut de poitrine et celui où des oreilles ont pu, à mille kilomètres de là, mais dans le même dixième de seconde, entendre une copie fidèle du son original ?

Quel individu hésiterait un seul instant entre les deux attitudes ?

Or, je le répète, on peut traiter ce problème de deux façons différentes.

La première consistera à poser des équations : -étant donné que le champ électrique, à telle distance, est de X microvolts par mètre, étant donnée la hauteur effective de l’antenne A, les constantes du premier circuit oscillant L, C, R, la fréquence des oscillations à recevoir F, etc...

Ainsi, on arrivera logiquement, après avoir noirci des pages et des pages de calculs et de signes cabalistiques, à la démonstration cherchée.

Notons, en passant, que cette solution ne sera pas rigoureusement mathématique. Les phénomènes physiques ne veulent pas toujours épouser exactement les contours d’une équation. Il faut bien les simplifier, les amputer d’un détail dont parfois on ignore l’importance...

Et puis, en admettant que nous arrivions tout au bout du chemin, aurons-nous vraiment une idée exacte des phénomènes ? Certes, non. Lorsque nous serons devant un appareil complet, nous demeurerons incapables de le régler ou de le réparer s’il cesse de fonctionner.

Ce n’est point en appliquant une formule quelconque qu’on peut déterminer qu’un condensateur de découplage est en court-circuit ou qu’un bobinage est coupé.

Pour arriver à cela, il faut suivre une méthode logique, et avoir, naturellement, une espèce de flair...

Il faut, en quelque sorte, « sentir » pratiquement comment fonctionne l’appareil.

Et c’est la seconde solution qui nous permettra d’acquérir ce sentiment exact du fonctionnement d’un appareil...

Que sera donc cette seconde solution ?

Elle consistera à ne pas dissimuler les faits derrière des abstractions, mais à les mettre, au contraire, en pleine lumière... La Radio, comme l’Electricité, c’est la science de l’Electron. Il faut partir avec l’électron et ne point le quitter. Pour résoudre le problème posé, il suffira de suivre la danse des électrons, depuis le courant microphonique jusqu’au courant téléphonique final.

Bien entendu, dans un ouvrage comme celui que nous commençons, il est impossible de remonter au déluge. Certaines connaissances en Electricité sont indispensables. Pour ceux de nos lecteurs à qui ces rudiments font défaut ou sont reculés trop loin dans leurs souvenirs, nous écrivons un autre ouvrage également simple : L’Electricité sans mathématiques.

La publication de ce livre aura lieu dans un délai assez bref.

Revenons à « La T. S. F. sans mathématiques ». Ce livre est spécialement dédié aux lecteurs de « La T.S.F. pour Tous ». Il n’a pas la prétention d’apprendre du nouveau aux Professeurs de Faculté et aux Elèves de la Section Radio à l’Ecole Supérieure d’Electricité. Cependant, je ne suis pas bien sûr que ces derniers ne puissent, parfois, en tirer un certain enseignement... Il y a souvent un fossé assez large entre les possibilités du calcul et celles de la pratique. On peut savoir établir un savant projet de stations d’émission de 200 kilowatts-antenne et patauger lamentablement devant un étage de haute fréquence qui « accroche » ou, au contraire, une oscillatrice qui refuse impitoyablement « d’accrocher »...

Ce livre est écrit pour tous ceux qui veulent savoir ce qu’ils font quand ils manœuvrent le bouton du potentiomètre d’un^ récepteur, ou pour quelles raisons Londres Régional, à peu près inaudible dans la matinée, devient plus puissant que la station locale quand le soleil est couché.

Ce livre s’adresse à des amateurs ou à des auditeurs de T. S. F., aussi bien aux « bricoleurs » qu’aux autres. C’est pourquoi je serai parfois amené à suivre, dans l’exposé de ces chapitres, un ordre apparemment arbitraire, mais qui aura l’avantage de faciliter la compréhension. Il me faut bien supposer que mes auditeurs savent ce que c’est qu’un haut-parleur ou une antenne, dès le premier chapitre de mon ouvrage. Cela ne m’empêchera pas, d’ailleurs, de revenir sur ces questions par la suite.

L. C.


CHAPITRE PREMIER

LE RAYONNEMENT ÉLECTROMAGNÉTIQUE

Entre l'émetteur et le récepteur.

La Téléphonie sans fil, comme la Radiotélégraphie, est une application des propriétés du Rayonnement électromagnétique.

Quelque part, il y a l'antenne du poste émetteur et, ailleurs, il y a le collecteur d'ondes de l'appareil récepteur. Ce dernier recueille des vibrations électriques semblables à celles qui parcouraient l'antenne d'émission. Il y a donc un lien entre les deux antennes. Le lien invisible, c'est le rayonnement électromagnétique; ce sont, en d'autres termes, les ondes hertziennes.

Il ne faut pas croire que les deux termes « ondes hertziennes » et « rayonnement électromagnétique » soient deux expressions différentes désignant la même chose.

Les premières ne sont qu'un cas particulier du second.

Le rayonnement électromagnétique.

Les rayons X, les rayons ultra-violets, la lumière visible, depuis le violet jusqu'au rouge, les rayons infrarouges, les ondes ultra-courtes, les ondes courtes, les ondes moyennes, les ondes longues sont des manifestations, à nos yeux différentes, du rayonnement électromagnétique.

En fait, entre tous ces rayons ou ces ondes, il n'y a aucune différence de qualité; il y a seulement des différences de fréquence...

Ainsi, la lumière d'une bougie ou l'onde émise par l'antenne de Radio-Paris sont des mêmes phénomènes, qui se produisent à des fréquences différentes.

Alors qu'à la jaune lumière de la bougie on peut faire correspondre la fréquence fantastique de cinq cent mille milliards de vibrations par seconde, l'émission de Radio-Paris ne correspond qu'à la fréquence de 182.000 vibrations par seconde. On peut, d'ailleurs, trouver ce dernier chiffre encore respectable...

A la recherche de l'électron.

On dit qu'un conducteur est le siège d'un courant électrique lorsque, par un moyen quelconque, on est parvenu à donner un mouvement d'ensemble aux électrons libres du métal.

Les atomes qui composent le conducteur sont constitués par un noyau central (ou proton) positivement électrisé, autour duquel gravite un essaim d'électrons, négativement électrisés. La charge positive du noyau est égale à la somme des charges négatives des électrons, si bien que l'atome est électriquement neutre.

L'ensemble constitue une sorte de système solaire en miniature dont le proton est le soleil et les électrons les planètes. Les dimensions de l'ensemble sont inimaginablement réduites. Les plus puissants microscopes ne pourront jamais nous permettre de voir l'atome.

Les orbites électroniques ne sont pas disposées au hasard. En partant du centre, on trouve d'abord la « couche K », sur laquelle gravitent deux électrons (Sauf pour l'atome d'hydrogène, le plus simple des atomes, qui n'a qu'un seul électron. La couche M comporte au maximum huit électrons, répartis régulièrement à la surface d'une sphère). Puis les couches L, M, N. etc...

Le nombre total d'électrons planétaires et le noyau central définissent la nature du corps. C'est ainsi que l'aluminium comporte treize électrons.

Le plomb comporte 82 électrons. Il serait fastidieux d'en définir l'arrangement.

Corps conducteurs et corps isolants.

Nous pouvons figurer l'atome d'aluminium comme indiqué figure 1.

On peut remarquer que les électrons planétaires ont toujours une forte tendance à s'assembler par 8.

D'autre part, les orbites périphériques peuvent provisoirement s'enrichir ou s'appauvrir en électrons. Le corps ne présente pas pour cela un changement de nature, puisque le noyau demeure inchangé. Il peut, cependant, acquérir des propriétés particulières.

Si un corps possède six ou sept électrons périphériques, il cherchera à en capter deux ou un pour compléter la couche extérieure. Ce sera un corps isolant.

Si, au contraire, la couche périphérique ne contient qu'un ou deux électrons, l'atome les laissera partir facilement. Ce sera un corps conducteur.

Les sauts d'électrons.

Dans un corps, comme l'aluminium, les électrons périphériques sont très mobiles. Ils sautent d'une orbite extérieure sur l'orbite extérieure d'un autre atome, parfois relativement éloigné... Il y a, dans le sein des atomes un échange continuel d'électrons, dans tous les sens.

Une section quelconque d'un corps conducteur (fig. :2) sera traversée, à chaque moment, par des électrons migrateurs. Si nous avions le moyen de compter les passages, nous trouverions qu'à chaque moment le nombre d'électrons qui va dans un sens est égal à celui qui va dans l'autre sens. Les sauts d'électrons sont parfaitement irréguliers.

Mais, en vertu même de cette irrégularité complète, le résultat statistique c'est qu'il y a autant de sauts dans un sens que dans l'autre. Pour trouver une différence, il faudrait faire l'observation pendant un temps extraordinairement réduit.

Il importe de bien comprendre les conséquences de cette observation. Les passages d'électrons dans les deux sens sont égaux à notre échelle vitale. Pour nous, une durée d'un millième de seconde est un temps négligeable. Or, il faudrait encore réduire formidablement cette durée pour qu'une irrégularité puisse apparaître.

Le courant électrique.

Si, par un procédé quelconque, nous trouvons le moyen de faire apparaître une irrégularité mesurable nous produisons le courant électrique.

Il faut bien préciser qu'il s'agit seulement de la moyenne des passages. S'il y a courant électrique, il y aura encore des passages dans les deux sens, mais notre observateur idéal notera qu'il y a régulièrement plus de passages dans un sens que dans l'autre.

Pour raisonner sur le courant électrique on peut, en fait, négliger l'agitation irrégulière pour ne tenir compte que du déplacement régulier. On a ainsi une image plus nette des faits et l'erreur que l'on commet est tout à fait inappréciable pour les temps normalement mesurables.

En définitive, on peut donc dire qu'un conducteur, parcouru par un courant électrique, est traversé par une procession régulière d'électrons. Le nombre d'électrons qui traverse une section du conducteur en un temps donné donne une mesure de l'intensité de courant.

Actions du courant.

Le conducteur traversé par la procession électronique devient le siège d'une série de phénomènes bien connus. Par exemple, il s'échauffe d'une manière facilement mesurable et, autour de lui, existent un champ électrique et un champ magnétique.

Le champ électrique peut être mis en évidence par son action sur les corps légers. On peut, par exemple, provoquer l'attraction d'une balle de moelle de sureau.

Le champ magnétique provoque l'attraction ou la répulsion d'une aiguille aimantée.

Courant alternatif.

Nous avons implicitement supposé un mouvement d'ensemble régulier communiqué à l'armée des électrons. Cela veut dire que le mouvement est uniforme, comme celui des molécules d'eau dans une conduite cylindrique pour un débit de un litre la seconde, par exemple.

Si nous découpons le temps en fractions régulières de un millième de seconde, notre observateur idéal notera que, dans chaque millième de seconde, une section du conducteur est traversée par un nombre régulier d'électrons.

Mais on peut aussi imaginer qu'au lieu de ce mouvement uniforme, correspondant au courant continu, on puisse communiquer aux électrons un mouvement vibratoire.

Chaque électron aura, en quelque sorte, une position d'équilibre autour de laquelle il oscillera avec une amplitude quelconque.

On peut se faire une image exacte d'un mouvement vibratoire en examinant le mouvement d'une simple balançoire ou d'un balancier de pendule. Lorsqu'on écarte le corps pesant de sa position d'équilibre, la pesanteur tend à l'y ramener. Dès que le corps est écarté du point B (fig. :3), il tend à y revenir en suivant naturellement la trajectoire indiquée en pointillé. Il part d'une vitesse nulle pour arriver au point d'équilibre B avec une vitesse maximum. En effet, dès qu'il a dépassé ce point, il est ralenti par l'influence de la pesanteur. Mais, emporté par sa vitesse, il atteint le point C, où il s'arrête un instant, avant de repartir vers B avec une vitesse accélérée et remonter jusqu'au voisinage du point A. S'il n'y avait point les frottements de diverses natures, il oscillerait éternellement entre A et C ou, si l'on veut, entre un état de repos et un état de vitesse maximum.

On peut communiquer aux électrons du conducteur un mouvement comparable. Ils partent d'un état d'équilibre avec une certaine vitesse. A mesure qu'ils s'éloignent de la position d'équilibre, une force retardatrice de plus en plus grande se fait sentir et, bientôt, ils sont contraints de s'arrêter pour repartir en sens inverse. Ils repassent par la position d'équilibre avec une vitesse maximum, mais dans l'autre sens

Mais que deviennent, dans tout cela, le champ magnétique et le champ électrique ? Ils accompagnent évidemment l'électron dans ses voyages à la recherche d'un insaisissable équilibre...

Et, de même qu'on dira que le conducteur est le siège d'un courant alternatif, de même dira-t-on que les champs magnétiques et électriques sont alternatifs.

Mais il convient, ici, d'examiner les choses avec une attention beaucoup plus grande.

Vitesse de propagation.

Imaginons un conducteur C et, quelque part dans ce conducteur, un électron E que, pour l'instant, nous supposons immobile (fig. :4).

Nous installons, à une certaine distance du point E, notre observateur idéal P. Ce parangon des serviteurs est chargé, maintenant, de déceler les champs magnétiques. Nous l'avons muni des instruments de mesure indispensables.

A un signal donné, nous mettons en mouvement l'électron E. Il y aura production d'un champ magnétique. Et nous pourrons observer ce fait important que la transmission du champ magnétique, depuis E jusqu'à P, demande un certain temps... Oh, sans doute, un temps bien court, mais tel, cependant, qu'il soit mesurable à l'aide des admirables méthodes de la physique moderne !

La connaissance de ce temps et de la distance E. P. nous permet de déterminer la vitesse de propagation et nous observerons, avec une certaine surprise, que c'est précisément la vitesse de la lumière, c'est-à-dire sensiblement 300.000 kilomètres par seconde.

Le fait du rayonnement électromagnétique.

Supposons, maintenant, que nous communiquions à l'électron un mouvement alternatif rapide autour du point E. Les oscillations du champ magnétique au point P vont suivre naturellement le même rythme. Mais ces oscillations du champ accuseront un certain retard par rapport à celles de l'électron.

En un instant donné, le champ magnétique décelable en P correspondra à une position de E différente de celle qu'il occupe réellement au moment considéré. Ce retard va d'ailleurs être variable, puisqu'il y a des variations considérables dans la vitesse de déplacement de E.

E est, en effet, tantôt immobile ou possède, au contraire, une vitesse maximum.

On conçoit qu'il puisse en résulter des phénomènes au point P. Or, ces phénomènes sont, précisément, ceux du rayonnement électromagnétique.

Ces phénomènes seront, en particulier, très marqués, si, pendant le temps de propagation de E en P, l'électron E a pu osciller plusieurs fois...

Si l'on essaie d'imaginer les lignes de forces qui vont de E à P, on constate qu'elles sont régulièrement enchevêtrées et que cette régularité affecte elle-même l'allure d'une vibration... Et cette vibration, qui se propage, elle aussi, avec la vitesse de la lumière, est précisément le rayonnement électromagnétique.

Le rayonnement à une certaine distance.

La simple figure 4 ne nous a pas livré encore tous ses secrets.

Cherchons plus avant. Au voisinage de E le rayonnement sera faible, car on admettra facilement que le « retard » dû à la propagation sera négligeable. Cet effet sera d'autant plus net que la vitesse d'oscillation de E sera plus faible. Nous ne pourrons guère mettre l'effet « rayonnement » en évidence avec des fréquences comme celles des courants alternatifs. Il n'en est pas moins vrai que cet effet existe.

Au contraire, l'effet « rayonnement » deviendra de plus en plus facile à mettre en évidence à mesure que la fréquence de l'oscillation E deviendra plus grande.

Avec les courants alternatifs industriels — correspondant à cinquante périodes par seconde — l'effet « rayonnement » ne pourrait être mis en évidence qu'à plusieurs milliers de kilomètres du point E. Or, ce rayonnement étant très faible... Il est, en fait, absolument indiscernable avec les moyens actuels... Lorsque les fréquences dépassent 10.000 périodes par seconde, on arrive dans la zone des ondes hertziennes utilisables. L'effet « rayonnement » devient facile à mettre en évidence.

La longueur d'onde.

Puisque ce rayonnement se propage avec une vitesse que l'on connaît et que, d'autre part, on peut lui faire correspondre une fréquence bien définie, il devient possible de définir une caractéristique qu'on nomme la longueur d'onde.

Cette longueur d'onde est le chemin parcouru par le rayonnement pendant une oscillation complète.

La période et la fréquence.

Une oscillation complète, ou période, correspond au temps qui s'écoule entre deux passages de l'électron au point E, dans le même sens. Si nous reprenons l'exemple plus courant du pendule (fig. :3), nous définirons la « période » comme suit : Le mobile part de B pour s'en aller en A, puis de A il revient vers B. La durée écoulée est la demi-période, car, à ce moment, le passage en B a lieu dans l'autre sens. Il continue jusqu'en C, puis revient en B. A ce moment, le temps passé est la période.

On peut aussi, plus simplement, compter les temps égaux qui s'écoulent entre deux passages successifs aux points d'élongation maximum A ou C.

La fréquence, c'est le nombre de périodes par seconde.

Puisque le rayonnement parcourt 300.000 kilomètres ou 300.000.000 de mètres par seconde, il est clair que la longueur d'onde en mètres est obtenue en divisant tout simplement 300.000.000 par la fréquence. Cela découle d'une simple règle de trois.

Rayonnement et induction.

On sait qu'un courant électrique variable peut donner naissance à un autre courant électrique dans un circuit voisin, quand certaines conditions sont réalisées. Il y a là un « effet à distance » qu'on a souvent confondu avec le rayonnement électromagnétique. C'est une grosse erreur. Il nous est impossible d'entrer dans les détails de ce problème. Nous devons cependant mettre en garde nos lecteurs contre cette confusion fâcheuse.

Il y a induction au voisinage même de la station d'émission. Ce qu'on pourrait appeler le champ magnétique pur est prépondérant. Par l'expression « voisinage même », il faut entendre une distance de l'antenne de l'ordre ou inférieure à une longueur d'onde. Et ceci découle d'un raisonnement établi plus haut.

On peut donc admettre qu'il y a induction dans un rayon de 1 km. 5 autour de l'Antenne de Radio-Paris. Au-delà seule la composante « rayonnée » est pratiquement appréciable.

Cette remarque est importante. Elle nous indique plus nettement pourquoi il ne peut, en pratique, y avoir de rayonnement avec les courants à fréquence industrielle, comme ceux qui servent à nous éclairer. La fréquence est de 50 périodes par seconde ; la longueur d'onde correspondante est de 300.000.000/50 soit 6.000.000 de mètres... Ce n'est donc qu'à une distance minimum de 6.000 kilomètres que le rayonnement pourrait être prépondérant. Mais nous avons exposé plus haut qu'avec une fréquence aussi petite le rayonnement est fatalement peu important. Il est donc impossible d'en pouvoir ressentir les effets à 6.000 kilomètres. L'effet constant est donc l'induction.

Propriétés générales du rayonnement.

Par « rayonnement » nous continuons, pour l'instant, à comprendre tous les rayonnements électromagnétiques, aussi bien les rayonnements utilisés dans la radio que les rayons X ou la lumière visible.

Nous savons déjà qu'au rayonnement on peut faire correspondre une fréquence (exprimée en périodes ou cycles, ou kilocycles par seconde), une longueur d'onde (exprimée en mètres, centimètres ou millimètres). La vitesse de propagation est la même pour tous les rayonnements, tout au moins dans le vide, elle est voisine de 300.000 kilomètres par seconde.

On a vu longtemps que, dans un milieu homogène, le rayonnement se transmettait en ligne droite.

Mais Einstein a démontré théoriquement, et la preuve en a été faite expérimentalement, que le rayonnement est pesant. Un rayon lumineux est donc dévié par la pesanteur. La chose a été récemment mise en évidence et le phénomène mesuré par des travaux astronomiques récents. Cette constatation a une importance philosophique considérable. Elle nous enlève tout espoir de pouvoir définir jamais la ligne droite. A la question : « Qu'est-ce qu'une ligne droite ?» on répondait : « C'est la trajectoire d'un rayon lumineux dans le vide. » Or, du fait même qu'il y a un observateur, il existe un champ de gravitation ou de pesanteur. En conséquence, le rayon lumineux n'est pas droit. Et il est impossible de définir la ligne droite...

Si ce poids de la lumière a passé longtemps inaperçu, c'est qu'il est excessivement faible. Il tombe, cependant, dans les possibilités de certaines méthodes de mesure.

Le rayonnement est une forme d'énergie. D'ailleurs, on parle souvent d'énergie rayonnante. Cette énergie est naturellement empruntée au corps qui rayonne.

Lorsqu'un rayonnement est absorbé par un corps, l'énergie apparaît généralement sous forme de chaleur. Puisque la lumière et le rayonnement en général ont un poids on doit s'attendre à ce qu'un corps frappé par un rayon subisse une certaine répulsion. A vrai dire, cette « pression de radiation » est excessivement petite.

Il ne faut pas, d'ailleurs, confondre cet effet avec celui qui anime les radiomètres qu'on voit parfois à l'étalage des opticiens. Ce sont de petits moulinets qui tournent dès qu'on les expose à la lumière.

Il s'agit là d'un phénomène calorifique. L'effet s'arrête dès que le vide de l'ampoule dépasse une certaine limite.

La pression de radiation est beaucoup trop faible pour qu'on puisse espérer la mettre mécaniquement en évidence.

Enfin, le rayonnement peut aussi amorcer ou produire des réactions chimiques. C'est cet effet photochimique qui est utilisé dans la photographie ou la cinématographie.

Le rayonnement et la théorie de Maxwell.

Il n'est pas sans intérêt de souligner que la théorie électromagnétique de la lumière fut établie, en 1867, par l'anglais Maxwell. Il s'agissait alors de travaux purement théoriques, dans lesquels l'illustre physicien démontrait l'identité de la lumière et de l'électricité.

Maxwell prévoyait mathématiquement l'existence d'un autre rayonnement électromagnétique ne différent de la lumière que par sa fréquence et capable, lui aussi, de se propager.

Ce rayonnement particulier fut expérimentalement mis en évidence par Hertz, en 1888. Les expériences du physicien allemand reproduisaient avec le rayonnement hertzien un certain nombre d'expériences d'optique.

On doit donc dire qu'à l'origine de la Radio il y a un anglais et un allemand.

L'hypothèse de l'éther.

L'esprit admet difficilement que l'énergie puisse se propager sans emprunter un milieu de propagation. Ainsi, les vibrations acoustiques ont besoin de la matière pour se propager. Elles empruntent l'air ambiant, ou l'eau, ou un solide quelconque. Dans le vide, le son ne se propage pas. Une expérience élémentaire de physique met ce fait en évidence.

Or, le rayonnement se propage parfaitement dans les espaces interastraux où règne un vide beaucoup plus parfait que celui que nos instruments permettent d'obtenir.

La croyance dans la nécessité d'un milieu de propagation était tellement ancrée dans l'esprit des savants qu'ils ont été conduits à en imaginer un.

C'est le fameux « Ether ». L'éther, que personne n'a jamais vu et dont les propriétés contradictoires ne peuvent se concilier avec tout ce qu'on sait de la constitution de la matière. Il me semble beaucoup plus simple de dire avec M. Marcel Boll : « L'Ether n'existe pas ».

A quoi bon cacher ce que nous ignorons derrière une étiquette qui ne correspond à rien ?

Il faut, tantôt admettre que l'Ether est infiniment fluide, puisque tous les corps en sont baignés dans leurs profondeurs, et tantôt admettre que l'Ether est plus rigide que l'acier...

L’analyse mathématique du rayonnement montre qu'il est constitué par un champ magnétique et un champ électrique variables, dont les composantes sont dans des directions rectangulaires.

On peut admettre qu'une force électrique et une force magnétique puissent agir à distance sans faire intervenir un milieu ou support plus ou moins immatériel...

Les catégories de rayonnement.

Le rayonnement utilisé en radiotélégraphie et en radiotéléphonie comporte des longueurs d'ondes qui s'échelonnent entre 30.000 mètres et quelques centimètres.

Les fréquences correspondantes sont comprises entre 10.000 périodes par seconde et 100 milliards de périodes par seconde.

Au delà de ces fréquences, on trouve une zone, connue à l'heure actuelle, dans laquelle le rayonnement n'est plus une onde hertzienne mais n'est pas encore tout à fait le rayonnement infra-rouge ou calorifique. Au delà, on trouve le rayonnement infra-rouge.

Enfin, nous arrivons à la mince bande de fréquence constituant la lumière visible... dont les fréquences s'étendent de 375 à 750 trillions de périodes par seconde.

Viennent ensuite les rayons ultra-violets — de 750 trillions à 20 quadrillions.

On passe ensuite aux rayons X « mous », puis aux rayons X « durs » ou pénétrants, dont la fréquence est plus élevée.

Les rayons X et ultra X ont des fréquences comprises entre 20 quatrillions et 60 quintillions.

Au delà sont les rayons gamma du radium, le rayonnement cosmique et, enfin, l'inconnu...

Le spectre du rayonnement est connu jusqu'aux rayons Gamma.

On peut schématiser ce spectre continu, qu'on connaît aujourd'hui entièrement sous forme d'un tableau (fig. :5).

On reconnaît ainsi qu'aucun « trou » n'a été laissé par ces explorateurs que sont les physiciens.

Il est frappant d'observer combien la bande représentant la lumière visible est mince. Cela lui donne en quelque sorte un caractère accidentel...

Les divisions indiquées par nos lignes verticales sont purement arbitraires. On passe insensiblement du violet à l'ultra-violet, par exemple. La radiation ne cesse pas brusquement d'être de l'ultra-violet pour devenir rayon X à une fréquence déterminée...

Il faut noter que nous avons choisi une échelle logarithmique et non une échelle proportionnelle. Dans ce dernier cas, il aurait fallu une feuille de papier de quelques mètres pour que « l'accident » de la lumière visible ait plus que l'épaisseur d'un trait.

Pour faciliter la lecture, nous avons adopté une graduation en puissance de 10. Ainsi, par exemple, 103 signifie 10 multiplié 3 fois par lui-même ou 10x10x10, ou, encore, 1 suivi de 3 zéros, c'est-à-dire 1.000.

1010 c'est 1 suivi de 10 zéros, c'est-à-dire 10.000.000.000 ou 10 milliards…

Cette façon de compter est commode. Elle a, dans notre cas, un inconvénient que nous devons signaler : elle cache sous une appellation facile la grandeur surhumaine des nombres dont il s'agit. Prenons l'exemple concret de la lumière jaune, à laquelle correspond la fréquence 5X1014 ou cinq cent mille milliards de périodes par seconde. C'est dire que l'électron qui émet la lumière jaune vibre 500.000 milliards de fois par seconde.

Ce chiffre dépasse largement les possibilités de l'imagination la plus solide.

Si nous admettions que, quelque part sur la terre, bien avant le déluge, au moment même où la vie faisait son apparition sur le globe, un être ait pu commencer à compter sans répit sans prendre le temps même de respirer, nous devrions conclure qu'aujourd'hui même il serait bien loin d'arriver jusqu'à ce chiffre. Or, l'ère humaine représente un moment bien petit de la vie du globe... La lumière jaune accomplit ce résultat vertigineux en une seconde..., le temps de prononcer deux mots.

Et la lumière jaune, si on la compare à la lumière violette, a une fréquence lamentablement lente !

Propriétés du rayonnement et fréquence.

Les propriétés générales da rayonnement, exposées plus haut, sont indépendantes de la fréquence. Mais il est des propriétés particulières qui dépendent d'elle. Cela nous fait comprendre pourquoi on a pu longtemps ignorer l'identité de cause entre un rayon X et une onde hertzienne.

Une feuille de verre au plomb pourra se laisser traverser par un rayon de lumière. Elle pourra, au contraire, être un obstacle infranchissable pour un rayon X « mou ».

Au contraire, aucun rayon lumineux ne traversera une feuille d'aluminium mince, mais un rayon X dur n'y trouvera point d'obstacle.

Une onde hertzienne traverse une épaisseur de briques ou d'ébonite — obstacle impénétrable pour un rayon lumineux.

Un rayon calorifique ou infrarouge demeurera invisible, à nos yeux, mais sa présence sera facilement révélée par un thermomètre dont il fera monter la colonne de mercure.

On pourrait multiplier ces exemples à l'infini...

Dans une étude prochaine, nous exposerons plus spécialement les propriétés particulières du rayonnement hertzien...


CHAPITRE DEUXIEME

PRODUCTION DU RAYONNEMENT

Nous pouvons tirer des pages précédentes une conclusion fort instructive : chaque fois qu’un électron subit un brusque changement de vitesse, il envoie un signal qui constitue le rayonnement. Suivant la rapidité de la variation ou, en termes plus précis, suivant la grandeur de l’accélération, le signal envoyé est un rayon X, un rayon de lumière visible, une onde hertzienne, etc...

Notons en passant que cette variation de vitesse peut avoir lieu dans un sens ou dans l’autre. Si un électron est au repos et qu’on lui communique une impulsion, il produit du rayonnement; il en produit aussi lorsque, lancé à une certaine vitesse, on l’arrête brusquement dans son essor.

Un électron, c’est bien peu ! Il est certain que le rayonnement sera considérablement renforcé si nous trouvons le moyen de communiquer des mouvements semblables à un grand nombre d’électrons.

Le problème de la production du rayonnement se ramène finalement à celui-ci : produire, dans un conducteur, un mouvement alternatif des électrons ou, si l’on préfère, un mouvement vibratoire...

En d’autres termes, il s’agit simplement de produire un courant alternatif à haute fréquence.

Production directe du courant alternatif.

Si l’on fait tourner une simple spire de fil perpendiculairement au plan d’un champ magnétique uniforme, il se développe entre les extrémités de la boucle une tension induite variable (fig. 6). Si le mouvement de rotation est uniforme, la tension induite est alternative et sa fréquence est égale au nombre de tours par seconde.

Voici donc un moyen très simple de produire du courant alternatif. Notre machine est donc en somme un alternateur élémentaire. Les grands turbo-alternateurs des centrales électriques modernes n’ont pas un principe différent...

N’oublions pas, toutefois, qu’il s’agit de produire des courants de haute fréquence. Pour que notre rayonnement soit digne de ce nom, il faut au moins que sa fréquence soit de 10.000 périodes par seconde...

Ce qui suppose une vitesse de rotation de notre spire de 10.000 tours par seconde... soit 600.000 tours à la minute.

Nous nous heurtons donc brutalement à une impossibilité.

En multipliant le nombre de pôles, en modifiant notablement le principe, en faisant tourner les induits dans le vide, on est cependant parvenu à construire des alternateurs donnant directement des fréquences de l’ordre de 30.000 périodes par seconde.

Grâce à ces machines, le poste d’émission est exactement semblable à une centrale qui fabrique de l’électricité. Il y a des moteurs et il y a des alternateurs. Ceux-ci sont connectés à l’antenne chargée de rayonner les courants de haute fréquence...

Mais la fréquence de 30.000 périodes/seconde ou, si l’on préfère, de 30 kilocycles/seconde est à peu près la limite. On peut doubler et même quadrupler la fréquence des courants, grâce à des circuits spéciaux, mais c’est au détriment du rendement et de la simplicité.

Cette méthode très simple de production du rayonnement ne peut donc être utilisée que lorsqu’il s’agit de produire des « ondes très longues ».

Encore n’a-t-elle qu’une apparence de simplicité. Il faut, en effet, réaliser une vitesse de rotation très élevée et cette vitesse doit être maintenue rigoureusement constante. Cela pose un certain nombre de problèmes qui ont reçu des solutions, mais dans le détail desquels nous n’avons point à pénétrer ici.

Qu’il suffise à nos lecteurs de savoir que la réalisation de l’alternateur à haute fréquence a été obtenue industriellement. Cette solution ne peut être envisagée que pour de très grandes longueurs d’ondes et pour des puissances énormes.

Il faut donc songer à d’autres solutions. Avant d’en arriver là, nos lecteurs doivent savoir ce qu’est un circuit oscillant et quelles sont ses propriétés.

Le circuit oscillant.

Nous avons appris plus haut ce qu’on devait entendre par « oscillation », mouvement vibratoire ou mouvement pendulaire. Nous avons choisi l’exemple d’un corps pensant suspendu à un fil. Nous allons nous efforcer d’examiner d’un peu plus près ce qui se passe dans cette expérience simple.

Suspendons donc un corps à l’extrémité d’un fil mince (fig. 7).

Notre système occupe, pour l’instant, la position verticale OB. L’expérience nous montre qu’il resterait éternellement dans cette position si rien n’intervenait.

Poussons le corps jusqu’à la position A. Il nous faut évidemment produire un certain effort. Il nous faut lutter contre la pesanteur.

Pousser le corps de B vers A, c’est, en somme, le soulever de la hauteur h.

On apprend, en Mécanique, que le travail effectué est égal au produit de la force multiplié parle chemin parcouru. Ce dernier est égal à h...

Lorsque nous aurons immobilisé le corps en A, notre travail sera-t-il perdu? Non, il sera, en quelque sorte, accumulé dans le corps. Pour qu’il apparaisse, il suffira de laisser retomber le corps. Nous pouvons nous servir de cette énergie pour élever un autre corps. Nous pouvons aussi simplement laisser tomber le corps et l’énergie se traduit par un échauffement du corps au moment du choc...

Ainsi donc, l’énergie utilisée est toujours présente; elle ne demande qu’à se manifester, elle est « en puissance » d’où son nom « d’énergie potentielle ».

Libérons le corps. Il revient vers B et, comme nous l’avons expliqué plus haut, arrive en ce point avec une vitesse maximum... Une première partie du cycle est close. Le corps est revenu à son point de départ... Où est notre énergie?

Elle a simplement changé de forme. Pour communiquer une certaine vitesse à un corps pesant, il faut encore dépenser de l’énergie. Il s’agit alors d’énergie cinétique — ou énergie due à la vitesse.

C’est cette énergie cinétique qui entraîne le corps bien au delà du point B jusqu’au point C, à peu près symétrique du point A...

Après le passage en B, c’est l’énergie cinétique qui est chargée de lutter contre la pesanteur. A mesure que le corps s’approche de C, sa vitesse décroît, par suite son énergie cinétique diminue, mais en même temps son énergie potentielle augmente.

Quand l’énergie potentielle est nulle, l’énergie cinétique est maximum et inversement.

Ainsi donc l’oscillation que nous constatons est la résultante de cette transformation d’énergie. Il importe de retenir qu’en fait, toute oscillation, toute vibration obéit à la même loi. Il y a transformation ou changement de forme de l’énergie...

Caractères du mouvement vibratoire.

La durée d’oscillation est très sensiblement constante. Un même temps s’écoule entre deux passages du corps au point A. C’est cette observation qu’on met à profit dans l’horloge pour obtenir la mesure précise du temps.

Nous avons plus haut défini ce qu’il fallait entendre par fréquence et période.

L’intensité du mouvement vibratoire peut être définie dans le cas de la figure 7. On peut dire aussi que c’est l’amplitude du mouvement.

L’expérience journalière montre que l’amplitude du mouvement décroît régulièrement.

A noter cependant que, malgré cela, la fréquence demeure sensiblement constante.

Au bout d’un temps plus ou moins long, on constate que l’oscillation cesse complètement.

On dit alors que le mouvement vibratoire est amorti.

Cela s’explique sans peine. Il faut, en effet, comprendre qu’une partie de l’énergie est perdue dans les frottements. Il y a le frottement du corps contre l’air, le frottement au point de suspension O.

Cette énergie dégradée est naturellement perdue. Elle se traduit par une diminution régulière de l’amplitude du mouvement.

DEUX FORMES DE L’ENERGIE ELECTRIQUE.

a) Energie potentielle.

Un condensateur chargé représente de l’énergie électrique emmagasinée sous la forme potentielle. En reliant les deux armatures par un conducteur, cette énergie se manifeste sous la forme d’un courant électrique.

La quantité d’énergie varie naturellement avec la capacité du condensateur et la tension décharge. On peut aussi comparer le condensateur chargé à un ressort qu’on a bandé par un moyen quelconque et qui est immobilisé dans cette situation.

En fait, un condensateur chargé présente, sur une armature (négative) une accumulation anormale d’électrons, l’autre armature (positive) présentant, au contraire, une raréfaction d’électrons.

Si l’on fait communiquer les deux armatures par un conducteur, les électrons en surnombre se précipitent vers l’armature positive...

b) Energie cinétique.

Une bobine parcourue par un courant électrique nous montre une autre forme d’accumulation d’énergie. Si nous interrompons brusquement le circuit, une étincelle de rupture chaude et bruyante apparaît, dans certains cas, aux bornes de l’interrupteur.

Cette étincelle, due à la self induction ou à l’inductance, est la trace visible de l’énergie accumulée dans le champ magnétique. Elle a été fournie par la source de courant au moment de l’établissement du courant; il est naturel qu’elle réapparaisse au moment où le courant cesse.

On pourrait insister sur l’analogie qui existe entre les manifestations matérielles qu’on nomme l’inertie et les manifestations électriques dues à la self-induction. L’inertie tend à prolonger l’état présent. Un corps est-il au repos ; il faut vaincre l’inertie pour le mettre en mouvement. S’il est, au contraire, animé d’une certaine vitesse, c’est l’inertie qui s’oppose à son ralentissement.

C’est en vertu de son inertie que le corps oscillant, arrivé au point B, est entraîné jusqu’au point C...

Or, il est bon d’avoir toujours présent à la mémoire que le courant électrique se ramène à un simple mouvement d’électrons. La self-induction est donc, en définitive, une propriété qui traduit l’inertie «les électrons.

Il est instructif de constater que, dans les deux cas, l’énergie emmagasinée n’est pas dans le corps conducteur. Elle est, pourrait-on dire, à l’extérieur. Dans le cas du condensateur, l’énergie est représentée par le champ électrique présent dans le diélectrique. Dans le cas de l’inductance, l’énergie est représentée par le champ magnétique dans lequel baigne la bobine. Il est donc en dehors du circuit, ou du conducteur.

Le circuit oscillant.

Le circuit oscillant est formé par l’association d’une inductance L et d’un condensateur C. Pour faciliter notre explication, nous avons inséré un interrupteur I, qui coupe le circuit pour l’instant (fig. 8).

Le condensateur C est chargé. Cela veut dire que sur une des armatures, il y a un excès d’électrons.

Fermons le contact. Tout se passe comme si les

électrons avaient une certaine inertie, due précisément au fait qu’ils doivent traverser l’inductance L.

Le courant électrique ne va donc pas s’établir d’une façon instantanée.

Cherchons à suivre la marche des phénomènes.

Pour qu’il n’y ait aucun courant, il faudrait évidemment que les deux armatures du condensateur fussent à la même tension électrique. En d’autres termes, il faudrait qu’elles ne présentassent ni excès, ni raréfaction d’électrons. Cet état d’équilibre correspond au point B de la figure 7.

Ce n’est point le cas présent. Nous venons de rendre le passage libre en fermant l’interrupteur. Les électrons vont-ils se précipiter immédiatement à une vitesse uniforme, de l’armature K vers l’armature L.

Il est évident que non; précisément à cause de l’inertie.

Supposons que nous ayons le moyen de mesurer à chaque instant le nombre d’électrons qui traverse

le circuit... Allons chercher cet observateur idéal que nous avons déjà utilisé dans le premier chapitre. Nous apprécierons, grâce à lui, l’intensité du courant instantané.

Au départ, il n’y a aucun courant, mais la tension entre les deux armatures K et L est maximum.

Notons de suite que l’énergie présente est emmagasinée dans le condensateur sous forme potentielle.

Puis les électrons secouent leur torpeur et se précipitent de K vers M à travers L.L’inductance L étant traversée par un courant s’entoure d’un champ magnétique... qui représente de l’énergie cinétique électrique...

Le courant tendrait à s’établir d’une façon définitive si le condensateur était capable de maintenir entre les électrodes la même tension électrique.

Mais à mesure que K perd des électrons et que M en reçoit, la dissymétrie s’atténue. Elle s’annule même à un certain moment...

A cet instant, est exactement réalisé l’état d’équilibre examiné plus haut... Mais au moment même où il se produit, la bobine L est traversée par un courant. Les électrons continuent leur course.

L’observateur idéal vous dirait même que le courant instantané est maximum...

En conséquence, le champ magnétique et l’énergie qu’il représente sont à leur maximum.

Il est clair cependant que cet état est instable.

Puisque le condensateur C ne peut plus envoyer des électrons grâce à son énergie interne, tout va sans doute cesser...

Non pas : l’inertie électrique, l’inductance tend à prolonger l’état de ce mouvement...Grâce à elle les électrons aspirés dans l’armature K continuant à se rendre vers l’armature M...

Cela affaiblit cependant peu à peu les forces accumulées dans le champ magnétique.

Aussi, dès le moment d’équilibre, l’intensité de courant a-t-elle commencé de diminuer...

Il n’en demeure pas moins vrai que des électrons continuent de circuler et vont, cette fois, s’accumuler en M.

Enfin, le courant cesse. Mais à ce moment, la situation de départ est exactement retournée. L’électrode M est négativement chargée, elle présente un excès d’électrons et l’électrode K est positivement chargée. Les conditions réalisées sont celles de la figure 10.

Le même phénomène va donc recommencer dans l’autre sens. Les électrons, en excès du côté de l’armature K, vont s’en aller vers l’armature M.

Nous assistons donc exactement à un mouvement vibratoire électrique. L’énergie électro magnétique (champ magnétique) est nulle, puis croissante, passe par un maximum et décroît, elle se transforme périodiquement en énergie électrostatique (champ magnétique du condensateur) dont la loi de vibration est absolument symétrique.

Comme dans l’expérience du pendule, la fréquence est absolument régulière. Elle ne dépend pas plus de la tension primitive de charge que la durée d’oscillation du pendule ne dépend de la grandeur h (fig. 7).

En prolongeant la comparaison, on verrait que les oscillations électriques sont amorties.

La bobine L n’est pas une pure inductance, elle possède une résistance électrique. Par conséquent tout passage de courant produit aussi un échauffement.

A chaque oscillation, une partie de l’énergie est donc dégradée. Aussi ne faut-il pas s’étonner si l’amplitude décroît très rapidement.

Dimensions électriques du circuit oscillant.

La fréquence des oscillations du pendule est déterminée, en un lieu donné, par ses dimensions mécaniques et par l’intensité de la pesanteur. Un pendule très grand donnera une grande période d’oscillation. Il est sans doute inutile d’insister sur ce fait qu’apprend l’expérience de chaque jour.

De même, les dimensions électriques du circuit oscillant, constitué par l’inductance et la capacité, déterminent la fréquence des oscillations produites.

Les dimensions électriques sont, tout naturellement, la grandeur du coefficient de self-induction ou inductance et la capacité du condensateur.

En agissant sur l’une ou sur l’autre on modifie le rythme des transformations d’énergie. Une augmentation de capacité, comme une augmentation d’inductance, correspond à une augmentation de la durée d’une oscillation, c’est-à-dire à une diminution de la fréquence. Ces deux qualités varient naturellement en sens inverse.

En fait, les dimensions électriques d’un circuit déterminent la fréquence des oscillations naturelles qui peuvent y prendre naissance.

Qu’est-ce que l’amortissement ?

Nous savons déjà ce qu’on doit entendre par oscillations amorties. Ce sont des oscillations dont l’amplitude décroît. Ce sont exactement celles d’un corps suspendu à un fil. Si le corps est très lourd, le fil de suspension très fin, les oscillations persistent longtemps. Nous savons aussi que l’amortissement est causé par les pertes d’énergie dues aux frottements divers. Plus ces frottements seront importants, plus on dira que l’amortissement est grand.

II en est de même en électricité. Nous avons tout à l’heure fait allusion aux pertes d’énergie causées par la résistance de la bobine. D’autres pertes peuvent intervenir. Des courants induits parasites prennent naissance dans les corps conducteurs placés au voisinage de l’inductance; ce sont les « courants de Foucault » qui correspondent également à une perte d’énergie. Enfin le condensateur n’est pas impeccable, lui non plus. Des pertes« diélectriques » se produisent entre les deux armatures, et c’est encore autant d’énergie transformée en chaleur. L’ensemble de ces pertes est responsable de l’amortissement du circuit; plus il est important, plus grand est l’amortissement.

Amortissement critique.

Imaginons un pendule dont il nous soit possible de faire varier l’amortissement.

Cela peut être tout simplement une règle ou T à dessiner que nous tenons entre le pouce et l’index. En serrant plus ou moins les deux doigts, on peut faire varier le frottement et, par conséquent, l’amortissement.

Si on laisse la règle très libre, les oscillations se produiront pendant un temps assez long. L’expérience nous montre que ce temps est d’autant plus court qu’on serre plus fortement. On constate sans peine que l’augmentation de l’amortissement ne modifie pas sensiblement la période de l’oscillation. Pour un certain serrage, la règle cesse d’osciller; elle vient tout simplement prendre sa position d’équilibre. Nous avons à ce moment réalisé les conditions d’amortissement critique.

Les mêmes faits se reproduisent, transposés dans le domaine électrique. Il ne faut pas que les pertes soient trop élevées, sinon le circuit cesse d’être oscillant. Le condensateur se décharge simplement et aucune oscillation ne se produit.

Oscillations entretenues.

Une oscillation est entretenue quand son amplitude demeure constante. Sachant que l’amortissement est causé par les pertes, on conçoit qu’on puisse entretenir le mouvement en restituant, à chaque oscillation, l’énergie perdue pendant l’oscillation précédente...

Le balancier d’une horloge est un exemple d’oscillation mécanique entretenue.« L’échappement » du mouvement d’horlogerie a précisément pour rôle de restituer au balancier l’énergie perdue par frottement. Cette restitution se fait sous forme d’une petite impulsion donnée régulièrement dans le sens convenable.

On peut concevoir qu’il en soit ainsi pour les oscillations électriques. Si, au début, la tension aux bornes du condensateur est de 10 volts, il suffira, par un moyen quelconque, de maintenir ce niveau électrique après chaque oscillation pour que le mouvement électronique soit entretenu.

Représentation graphique.

Il est commode de représenter les phénomènes vibratoires par un graphique. On peut, d’un seul coup d’œil, juger des différentes caractéristiques du mouvement.

Prenons encore l’exemple du mouvement pendulaire (fig. 12). A chaque moment, nous savons où en est le mouvement si nous connaissons la distance de BA, ou élongation, ou amplitude. Pour que nos renseignements soient tout à fait suffisants, il faut encore que nous sachions si le corps est à droite ou à gauche de la ligne d’équilibre OP.

Pour compléter notre convention, nous pouvons admettre que les élongations du côté de A sont négatives et que celles du côté de C sont positives.

Enfin, nous admettrons que le temps se déroule suivant une ligne régulière et continue.

Représentons, figure 13, cette ligne des temps par une horizontale OT.

Admettons maintenant que les élongations ou amplitudes positives sont comptées au-dessus de l’axe des temps et que les amplitudes négatives sont comptées au-dessous.

Commençons à déterminer le mouvement. Au début de l’expérience le corps est au point A. Commençons à compter les secondes qui s’écoulent.

A l’origine, il y a zéro seconde et l’amplitude est AB. Portons cette amplitude sur le graphique, en AB. Cela nous détermine le P1.

Au bout d’une seconde, le mobile est revenu dans la position OB, — l’amplitude est donc nulle.

Sur la ligne des temps, au point correspondant à une seconde, nous marquons le point P2.

Puis, l’amplitude change de sens, et au bout de 2 secondes, le corps est au point C. Nous marquons l’amplitude en A, C, etc... Ainsi, de point en point, nous pouvons suivre le mobile dans ses mouvements.

En reliant tous ces points par une ligne continue, nous obtenons un graphique qui nous renseigne exactement sur toutes les circonstances du mouvement vibratoire.

Voulons-nous connaître la position du mobile au bout de trois secondes et demie ? Au point de l’axe des temps correspondant à 3,5 secondes, il suffira d’élever une perpendiculaire. Le point de rencontre de cette ligne avec le graphique nous donnera la position cherchée. L'amplitude est, en effet, ED.

Nous savons que l’amplitude maximum est AB. D’un simple coup d’œil nous savons que la période est de 4 secondes...

Ainsi, on peut dire que le graphique figure 13 est une fiche signalétique complète du mouvement vibratoire.

A un mouvement vibratoire entretenu correspondra un graphique analogue à la figure 14. La figure 15 correspond au contraire à un mouvement amorti et, dans le cas de la figure 16, l’amortissement est encore plus considérable.

Il est évident que les oscillations électroniques peuvent aussi être représentées graphiquement. Il nous suffira de mesurer les amplitudes électriques, c’est-à-dire les tensions et de porter celles-ci sur l’échelle verticale. Les temps seront, de la même façon, portés sur l’échelle horizontale. Nous aurons toutefois à mesurer des temps beaucoup plus courts que pour une oscillation pendulaire. Il s’agira souvent de temps inférieurs à un millionième de seconde.

Nous pourrions tout aussi bien représenter graphiquement le mouvement vibratoire d’un corps qui produit un son...

On voit, par ces quelques exemples, que cette méthode de représentation est extrêmement pratique et qu’elle permet de nous faire voir instantanément l’allure d’un mouvement vibratoire.

Le mouvement pendulaire.

Un mouvement vibratoire ou périodique est un mouvement qui se reproduit périodiquement semblable à lui-même.

Si nous avons recours au mode de représentation expliqué plus haut, nous comprenons qu’il peut y avoir une infinité de types de mouvements. Ainsi, figures 17, 18 et 19, nous en représentons quelques-uns.

Le plus simple de ces mouvements est le mouvement pendulaire. C’est celui dont la forme, traduite graphiquement, est semblable à celle d’une oscillation pendulaire, c’est-à-dire à celle d’un corps pesant suspendu qui oscille sous la seule action de la pesanteur. La forme de cette courbe s’appelle une « sinusoïde », d’où le nom de « vibration sinusoïdale » qu’on donne encore à ce type de mouvement.

L’allure d’une vibration simple est à peu près celle des figures 14 et 13...

On peut démontrer qu’une vibration complexe, comme c’est le cas des figures 17, 18 et 19, est toujours équivalente à une somme de vibrations simples. On peut retrouver la vibration complexe en superposant un certain nombre de vibrations simples.

De plus, les fréquences de ces vibrations simples sont des multiples de la fréquence initiale.

Traduisons cela en langage moins hermétique. Un corps présente une vibration complexe à raison de 1 période par seconde. Nous serions toujours en droit de considérer cette vibration comme la résultante d’un ensemble de vibrations simples dont les fréquences seront 2, 3, 4, etc..., périodes par seconde.

Prenons un exemple. Sur la figure 20 nous avons représenté un vibration complexe A B C D E.

On peut la considérer comme la résultante des vibrations simples A K L, C, etc..., et A P V, dont les fréquences sont respectivement doubles et triples.

Ainsi, on a :

etc...

Il suffira à nos lecteurs de connaître ce résultat. Il faut faire appel aux mathématiques pour décomposer une vibration complexe en ses éléments simples.

Production d’oscillations électriques.

Pour faire osciller le pendule de la figure 12, il suffit d’écarter le corps de sa position de repos et de l’abandonner à lui-même.

Pour faire osciller les électrons du circuit figure 8, il suffira de charger le condensateur, puis de fermer l’interrupteur I.

Mais le pendule oscille encore longtemps après le premier mouvement. Si nous avons pris la précaution de choisir un mobile assez lourd et si le fil de suspension est très fin, nous obtiendrons des oscillations peu amorties. Le corps oscillera des centaines et des centaines de fois avant de s’arrêter...

Il n’en sera pas de même des oscillations électroniques. L’amortissement est relativement plus grand et les électrons s’arrêtent après une ou deux oscillations.

Ainsi, à chaque charge du condensateur, on ne peut compter que sur un signal fort bref. Pour espérer obtenir un effet à distance, il faudra multiplier autant qu’on pourra les impulsions. Il faudrait pouvoir ouvrir et fermer l’interrupteur I plusieurs milliers de fois par seconde...

Générateurs à étincelles.

Imaginons le dispositif de la figure 21. Un circuit oscillant constitué par L et C est interrompu par un intervalle d’air E. Aux bornes de la coupure E on branche un transformateur T qui permet de développer une tension considérable.

Supposons que cette tension soit variable. Il est clair que le condensateur C se charge à travers la bobine L. Il ne peut, pour l’instant, y avoir d’oscillations à cause de la coupure E.

Au cours de ses variations, la tension de charge est nulle, croissante, passe par un maximum, décroît, devient nulle, change de sens, etc...

Lorsqu’on applique une tension très élevée entre deux conducteurs assez proches, il se produit une étincelle disruptive.

C’est ce phénomène qu’on met à profit pour l’allumage des moteurs d’automobile. C’est l’étincelle éclatant entre les pointes de la bougie qui allume le mélange détonnant.

Sous l’influence de l’étincelle, l’air devient provisoirement conducteur (en d’autres termes, il devient ionisé).

Ainsi, la tension entre les bornes E, croît en même temps que C se charge à cette tension. Si la tension est suffisante, une étincelle éclate en E. Cette coupure devient provisoirement conductrice et, par conséquent, des oscillations électroniques peuvent prendre naissance dans le circuit LC.

L’étincelle cesse dès que la tension a suffisamment diminué, mais le même phénomène peut se reproduire aussi souvent qu’on le désire. Il suffit d’admettre en T du courant à mille périodes par seconde pour que, mille fois par seconde, le circuit soit le siège d’oscillations amorties.

Ce principe permet de réaliser des petits émetteurs d’ondes amorties très simples. La plupart des stations côtières et des stations à bord des bateaux sont encore construites sur ce modèle.

Principe de la transmission.

Chaque fois qu’une étincelle éclate en E (fig. 21), les électrons du circuit subissent une série de vibrations. Nous savons déjà que cela se traduit par un rayonnement électromagnétique. Ce rayonnement se transmet hors du circuit et se propage avec la vitesse de la lumière.

On conçoit facilement que l’effet du rayonnement puisse être beaucoup plus considérable si l’on intercale dans le circuit un corps présentant une surface notable. C’est le rôle de l’antenne d’émission.

Cette antenne peut être considérée comme l’armature d’un condensateur dont la terre serait l’autre armature.

Ainsi se précise notre idée d’un poste d’émission. Nous pouvons maintenant le schématiser comme nous l’avons fait figure 22. C’est un circuit dans lequel sont produites des oscillations. L’effet de celles-ci est multiplié par l’emploi d’une antenne ou « aérien » dont le rôle est de « rayonner » les oscillations produites. L’antenne est, en fait, un véritable radiateur d’ondes.

De même que la flamme d’une bougie envoie des rayons lumineux dans toutes les directives, de même l’antenne envoie autour d’elle le rayonnement hertzien.

Mais la flamme de la bougie envoie un rayonnement qui n’est pas amorti, tandis que l’antenne émet en quelque sorte un bref signal à chaque étincelle qui franchit l’éclateur.

Si nous avions la possibilité de construire un alternateur à haute fréquence, nous pourrions constituer un poste d’émission comme sur la figure 23. Et cette fois, nous aurions exactement transposé l’image de la bougie dans le domaine hertzien...

Nous verrons plus loin qu’il est d’autres moyens d’obtenir des oscillations à haute fréquence entretenues. Pour l’instant nous pouvons supposer provisoirement le problème résolu.

Nous savons produire du rayonnement, nous savons émettre quelque chose qui est un signal.

Il faut apprendre maintenant comment ce signal peut être mis en évidence à une grande distance de l’antenne d’émission.


CHAPITRE TROISIEME

DU COTE DU POSTE RECEPTEUR

De l'antenne d'émission, le rayonnement magique s'échappe a la conquête du monde. Ses ailes vertigineuses l'entraînent à la vitesse inconcevable de 300.000 kilomètres à la seconde.

Nous savons déjà que les rayons, rencontrant un conducteur quelconque, y provoquent la naissance d'un courant électrique de même fréquence que lui...

La « réception des ondes » consiste donc tout simplement à mettre ce courant électrique en évidence.

A chaque étincelle de l'éclateur, un bref signal est rayonné. Quelque infime fraction de seconde après, l'antenne réceptrice est parcourue par un courant absolument identique d'allure, mais d'amplitude forcément très réduite. Le rythme du courant de réception sera naturellement le même que celui du courant d'émission. Si ce dernier est découpé en signaux convenus, ceux-ci seront reproduits par le courant de réception. Et voilà toute la Télégraphie sans fil...

Nécessité de la sélection.

Le collecteur d'ondes, ou antenne réceptrice, est donc le point de départ du poste récepteur. Il sera parcouru par le courant de réception. Mais nous pouvons facilement imaginer combien ce courant sera faible.

Il représente, en effet, la dépense d'une certaine énergie. Et cette énergie, c'est tout naturellement le poste d'émission qui en a fait les frais. Songeons qu'un courant semblable est développé dans tous les conducteurs frappés par le rayonnement. La somme des énergies de tous ces courants ne représente encore nécessairement qu'une fraction de l'énergie dépensée à l'émission...

L'amplitude des courants produits est extraordinairement réduite. Nous voici déjà fixés sur ce point.

D'autre part, ce qui est vrai pour le rayonnement qui nous intéresse l'est aussi pour tous les autres. S'il y a cent stations qui émettent simultanément, c'est cent courants divers qui se superposeront dans le collecteur d'ondes. Ces effets s'ajoutent algébriquement; c'est dire que l'effet total n'est pas forcément un courant plus intense, mais c'est une résultante.

Il faut donc, avant d'aller plus loin, que nous trouvions le moyen de sélectionner le courant qui nous intéresse, c'est-à-dire celui qui a été engendré par le rayonnement de l'émetteur qu'il s'agit de recevoir.

Ce moyen, les phénomènes de résonance vont nous le donner.

Qu'est-ce que la résonance ?

Tout le monde sait obscurément ce qu'est la résonance. Il suffit d'avoir fait quelques parties de balançoires dans sa jeunesse pour avoir fait connaissance avec elle.

Pour obtenir l'entretien du mouvement d'une balançoire, il suffit de donner de faibles impulsions dans le bon sens et au moment voulu. L'enfant acquiert très vite ce sens particulier...

Il serait inutile et fatigant de vouloir communiquer à l'escarpolette l'amplitude maximum dès le premier mouvement. On commence par une petite impulsion et il se produit une première oscillation très faible. La seconde impulsion est donnée dans le cours de la première oscillation et en augmente légèrement l'amplitude... Ainsi, à chaque oscillation, l'amplitude s'accroît et atteint bientôt une valeur impressionnante.

On sait que la « période » de la balançoire est parfaitement déterminée et que c'est perdre son temps et ses forces que de vouloir lui imposer un autre rythme que le sien... Il s'agit d'un phénomène de résonance.

La sélection par la résonance.

L'expérience que nous allons décrire est d'une réalisation très simple.

Soit une tige T (fig. 24) à laquelle nous suspendons une série de pendules dont les longueurs sont différentes. Longueurs différentes, cela veut dire : périodes de vibrations diverses.

Plus un pendule est long et plus longue est sa période.

A chacune de ces longueurs correspond donc une période, ou, si l'on préfère, une fréquence d'oscillation différente.

A l'extrémité de la tige T, donnons une série de chocs réguliers avec un marteau. A chacun des chocs, nous observerons une impulsion des pendules qui amorcent des oscillations. Si les chocs sont donnés suivant un rythme tout à fait irrégulier, nous observons qu'aucun pendule n'oscille régulièrement.

Mais astreignons-nous, maintenant, à donner des chocs en synchronisme avec l'oscillation d'un des pendules. Nous observerons que l'oscillation du pendule correspondant se précise immédiatement.

Chaque impulsion étant donnée au même moment de la période, et dans le sens convenable, l'amplitude prend une valeur considérable. Les autres pendules demeurent pratiquement immobiles. Ils amorcent un mouvement par moment mais ne tardent pas à s'arrêter pour recommencer l'instant suivant.

Parmi les cinq pendules, il n'en est qu'un seul dont le mouvement soit régulièrement entretenu.

Changeons maintenant le rythme des chocs. Réglons la fréquence sur celle d'un autre pendule. Nous constaterons que les mouvements de ce dernier prennent une amplitude croissante, alors que le premier ne tarde pas à s'arrêter.

Nous avons utilisé, dans cette expérience, les phénomènes de résonance. Par leur seule action, nous avons pu « sélectionner » le mouvement d'un pendule et d'un seul. Nous avons été maîtres de choisir celui que nous voulions mettre en mouvement. Il a suffit, pour cela, de rythmer nos impulsions sur la fréquence propre du mouvement. L'énergie communiquée par chacun des chocs, au lieu de se dépenser au hasard, s'est accumulée dans un mouvement bien défini.

La résonance autour de nous.

Que la période de vibration d'un chandelier, d'un piano, coïncide avec une note, et le chandelier vibrera désagréablement chaque fois que la note sera jouée.

Posez un violon accordé sur un piano lui aussi. Frappez une des notes qui correspond aux cordes du violon. Cette corde entrera en vibration.

Il est interdit à une troupe de passer au pas cadencé sur un pont suspendu. Si la fréquence des pas correspondait précisément à la fréquence, ou à un multiple de la fréquence propre du gigantesque pendule constitué par le pont, il pourrait y avoir production d'un mouvement de grande amplitude et le pont pourrait être arraché de ses attaches.

Nous pourrions citer de nombreux exemples. Les phénomènes de résonance ne sont pas un cas particulier, mais sont au contraire un cas absolument général.

Encore un exemple de résonance.

On peut faire une expérience peut-être encore plus instructive que celle de la figure 24.

Nous avons supposé que l'impulsion était donnée à l'aide de chocs. C'est peut-être un peu brutal et l'on peut admettre que l'énergie ainsi transmise est mal utilisée.

Reprenons notre barre de bois à laquelle nous avons fixé toute une série de pendules.

Ajoutons encore un pendule dont nous pourrons régler la longueur du fil de suspension. Notons encore une fois qu'en modifiant la longueur nous modifions, en fait, la fréquence du mouvement vibratoire.

Ce pendule supplémentaire est placé à l'extrémité de la barre. Donnons-lui exactement la longueur de l'un quelconque des autres pendules.

Pour l'instant, tout est en repos. Ecartons avec précaution ce dernier pendule de la position d'équilibre sans faire bouger les autres et rendons-lui la liberté.

Il oscille. Nous observerons alors que le pendule dont la longueur est égale, amorce, lui aussi un mouvement. Ce mouvement s'affirme peu à peu et ne tarde pas à prendre une amplitude notable.

Les autres pendules demeurent au repos. Ils amorcent parfois un léger mouvement, mais celui-ci s'arrête aussitôt.

Bientôt le premier et le second pendule oscillent en accord parfait et ils s'arrêteront en même temps.

Que s'est-il passé ? Le premier pendule a transmis de légères impulsions à la barre de bois. Si légères, qu'elles sont invisibles et même insensibles. Ces impulsions ont été transmises à tous les pendules. Seulement elles n'ont point, si l'on peut dire, trouvé une attention favorable partout. La résonance n'a pu se produire que pour un seul pendule. Mais, pour celui-ci, l'énergie transmise n'a point été perdue ; elle s'est accumulée et traduite par un mouvement dont l'amplitude était croissante...

Cette expérience a le mérite de nous faire exactement comprendre le mécanisme de la résonance. Il s'agit d'une accumulation de petits effets qui arrivent précisément au moment convenable.

En fait, à l'aide de la résonance, nous avons réalisé exactement la sélection d'un mouvement vibratoire.

C'est le même phénomène qu'on applique dans un récepteur de T.S.F.

La résonance du circuit récepteur.

L'antenne réceptrice, ou collecteur d'ondes, est frappée par des rayons hertziens épars. Chacun de ceux-ci donne naissance à un courant à haute fréquence. Cette fréquence est naturellement égale à la fréquence de l'émission. C'est dire, en d'autres termes, que le courant qui prend naissance dans le collecteur d'ondes est la réplique exacte du courant qui parcourait l'antenne d'émission. En somme, les électrons du collecteur d'ondes, liés aux électrons de l'antenne d'émission par le rayonnement, sont animés de mouvements semblables...

Or, parmi tous les rayonnements épars à un moment donné, un seul nous intéresse. Il nous faut le sélectionner, c'est-à-dire faire naître pour lui des circonstances favorables, telles que son amplitude devienne prépondérante par rapport aux autres vibrations. Pour cela neus ferons tout simplement appel à la résonance.

Nous avons appris plus haut qu'à un circuit oscillant de dimensions électriques données, correspondait une fréquence d'oscillation bien définie, exactement comme la longueur du fil de suspension définit la fréquence du pendule.

Si nous intercalons dans le collecteur d'ondes un circuit oscillant accordé précisément sur la fréquence de l'émission désirée, nous aurons fait naître les circonstances favorables. L'amplitude du mouvement électronique sera considérablement plus grande. Nous aurons, en même temps, réalisé une sorte d'amplification et la sélection du rayonnement que nous désirions.

Récapitulons un peu.

Il n'est pas inutile de faire maintenant le bilan de nos dernières acquisitions. Lorsque, dans un conducteur, on a su communiquer aux électrons un mouvement vibratoire à haute fréquence, on a produit, par ce fait même, un rayonnement électromagnétique qui s'est propagé au loin.

Les électrons des corps conducteurs, touchés par ce rayonnement, ont été eux-mêmes animés d'un mouvement vibratoire à la même fréquence. En favorisant cette vibration des électrons, grâce à un circuit oscillant accordé, nous avons favorisé le courant correspondant à l'émission que nous désirions recevoir. Nous en sommes là. Le but n'est pas atteint encore.

Le courant produit dans le circuit oscillant est d'une intensité très faible. De plus, c'est un courant à haute fréquence. Il ne saurait donc être question de le mettre en évidence à l'aide de moyens grossiers. Notre but, c'est, en somme, de rendre le signal perceptible à l'un de nos sens. On pourra s'adresser à la vue ou à l'ouïe. Dans le premier cas, l'idéal sera la Radiovision ou Télévision ; dans le second cas, ce sera la Téléphonie sans fil.

Un cas particulier plus simple sera réalisé par la télégraphie sans fil. Le signal est simplement découpé en signaux de rythme convenu, qu'on traduit à l'aide d'une clé. Mais il faut toujours obtenir une traduction sensible du signal.

Examinons le cas le plus simple d'une transmission de signaux morses à l'aide d'un générateur à étincelle. Nous avons appris plus haut comment fonctionnait un tel générateur. A chaque étincelle, l'oscillation du circuit émetteur se produit. Cette oscillation est de faible durée, à cause de l'amortissement. Mais un rayonnement de courte durée est cependant produit à chaque étincelle, provoquant là décharge oscillante du condensateur.

Le rythme des étincelles est choisi pour correspondre à une fréquence acoustique. Il s'agira, par exemple, de 800 périodes par seconde.

Cela veut dire que, 800 fois chaque seconde, les électrons de l'antenne d'émission seront secoués par des vibrations à haute fréquence et enverront dans l'espace un rayonnement.

Le même phénomène se reproduira dans l'antenne réceptrice 800 fois par seconde, et pendant un temps très bref, les électrons du circuit récepteur entreront en vibration.

Nécessité de la détection.

Un téléphone ou un écouteur téléphonique est un appareil très simple et très sensible qui transforme un courant électrique vibratoire en un son.

L'engin est constitué en principe par un aimant (fig. 26) portant une bobine placée au voisinage d'une plaque de fer doux. Celle-ci est attirée par l'aimant. Les courants qui traversent la bobine produisent des variations du champ magnétique de l'aimant. Par conséquent la plaque métallique subit des attractions plus ou moins fortes. Elles s'incurvent plus ou moins vers l'aimant et ce mouvement, qui suit fidèlement les variations du courant communiqué à l'air ambiant est transformé en un son dont la fréquence ou hauteur acoustique est précisément égale à la fréquence du courant électrique.

Suffira-t-il d'intercaler quelque part un écouteur téléphonique pour convertir le circuit de la figure 25 en un récepteur complet ?

En supposant cela nous ferions une grave erreur. Le circuit de la figure 25 n'est point parcouru par un courant à 800 périodes par seconde, mais par un courant à haute fréquence se produisant 800 fois par seconde.

Ce n'est point du tout la même chose, et la représentation graphique va nous donner de cela une excellente démonstration. Le courant qui traverse l'antenne peut être représenté comme sur la figure 27. Il y a, chaque 1/800° de seconde, un groupe d'oscillations amorties. On voit clairement que la fréquence de ces oscillations, que nous avons marquées x, ne doit pas être confondue avec la durée qui sépare deux étincelles.

Qu'advient-il si l'écouteur téléphonique est inséré dans le circuit sans autre disposition ?

En admettant qu'il soit d'une fidélité parfaite et que la plaque vibrante puisse suivre toutes les impulsions du courant qui le traverse, le son correspondrait non pas à la fréquence de 800 périodes, mais à celle de l'oscillation à haute fréquence.

Or, notre oreille n'est sensible qu'à des vibrations dont la fréquence est pratiquement comprise entre 50 et 10.000 périodes par seconde. Ainsi, même en admettant que la plaque puisse vibrer, notre oreille demeurerait insensible à cette vibration...

Mais cela même n'est pas admissible. L'inertie de la plaque est beaucoup trop grande pour lui.

A peine la plaque a-t-elle pu esquisser un mouvement dans un sens qu'elle est sollicitée dans l'autre sens. Aussi, en fait, demeure-t-elle immobile, dans l'expectative...

La plaque de l'écouteur ne bouge pas, parce qu'elle reçoit trop rapidement des impulsions dans les deux sens.

Représentons figure 24 une image agrandie du courant à haute fréquence. La partie ABC correspond à une impulsion dans un sens ; la partie C D E à une impulsion dans l'autre sens, etc...

Supposons que nous parvenions à supprimer les parties comme C D E, G H I. Cette fois, toutes les impulsions reçues par la plaque seront dans le même sens et, par conséquent, ajouteront leurs effets.

Si nous intercalons cette fois l'écouteur téléphonique, sa plaque vibrante subira une impulsion à chaque passage d'oscillation. Or, comme il y a précisément 800 impulsions par seconde, la plaque vibrante transmettra à notre oreille un son à 800 périodes par seconde.

Pour rendre le rayonnement perceptible à notre sens, il suffit donc :

  1. D'intercaler un dispositif permettant d'éliminer les fragments d'oscillations comme C D E, G H I, etc... ;
  2. De placer un écouteur téléphonique dans le circuit.

Ainsi, nous aurons réalisé un récepteur complet.

Un élément important, c'est ce dispositif que nous avons défini plus haut.

Son rôle est précisément de mettre en évidence, de déceler les oscillations, d'où son nom de détecteur.

On peut, à la rigueur, concevoir un récepteur de T.S.F. qui n'ait ni circuit oscillant ni collecteur d'ondes apparent ; on ne peut en concevoir qui n'ait point de détecteur.

Principe de la détection.

La détection consistera donc à éliminer les parties d'oscillation comme C D E, G H I, etc...

On obtiendra alors une représentation graphique comme nous l'avons indiqué figure 25. Pratiquement, la plaque du téléphone recevra trois impulsions successives, très rapprochées, dont l'effet concordant se confondra.

En fait, tout se passera comme si le courant correspondait à la représentation graphique indiquée en pointillé. Si nous voulions aller au fond des choses, nous pourrions apprendre que le fait de détecter une onde a pour but la création d'un courant moyen.

En effet, le courant moyen est nul, dans le cas d'une oscillation comme sur la figure 24, et dans la figure 25, le courant moyen a précisément la forme de la ligne pointillée.

Remarquons que les fractions d'oscillations comme A B C, E F G, etc..., correspondent au déplacement des électrons dans un certain sens.

Les fractions comme C D E, G H I, correspondent au déplacement des électrons dans un autre sens.

Détecter, c'est donc, en somme, ne laisser circuler les électrons que dans un seul sens. Pour cela il ne suffit évidemment pas de placer sur le conducteur un écriteau rouge portant la mention « sens interdit ».

Il faut imaginer des systèmes ne permettant le passage du courant que dans un seul sens. Ces systèmes sont des redresseurs de courant, car si on leur soumet du courant alternatif, c'est-à-dire du courant qui oscille alternativement dans un sens puis dans l'autre, ils fournissent du courant unidirectionnel ou courant redressé.

Lorsque ces systèmes peuvent fonctionner avec des courant de haute fréquence, ce sont des détecteurs.

Détecteurs à contacts.

Détecteur à cristal.

Ces détecteurs, comme beaucoup d'autres, n'ont plus guère aujourd'hui qu'un intérêt historique. Il existe cependant de fervents amateurs du récepteur à galène.

Le détecteur est constitué par un cristal de sulfure de plomb (galène) naturel ou artificiel sur lequel vient s'appuyer une petite pointe métallique (figure 31). Pour certains points de la surface, on observe que la résistance électrique du système est faible pour le passage du courant dans un sens et, au contraire, très grande dans l'autre sens. On obtient donc un véritable effet de redressement.

La nature exacte des phénomènes mis en jeu dans le détecteur à cristal est mal connue. Plusieurs théories ont été proposées. Aucune n'est absolument inattaquable, aussi n'en citerons-nous aucune.

Redresseur et détecteur à oxyde.

Une rondelle de cuivre oxydée, appuyée sur une rondelle d'un autre métal, constitue un véritable redresseur de courant quand certaines conditions de pression sont réalisées.

Ce phénomène peut être utilisé pour la détection. Il permet, en particulier, de détecter des signaux dont l'amplitude est assez grande.

Autres détecteurs.

Mais le détecteur le plus communément utilisé est le détecteur à tube électronique. Nous aurons l'occasion de revenir plus loin sur ce point important.

Détection d'une onde entretenue.

Tout ce qui précède se rapporte à la détection d'une onde amortie. Il s'agit de brefs groupes d'oscillations séparés par des silences, on dit alors qu'il s'agit de trains d'ondes.

Chaque train d'ondes, après détection, se traduisait par la naissance d'une impulsion sur la plaque du téléphone. Ces impulsions se produisant à fréquence musicale, notre oreille percevait finalement un son.

Mais que se passera-t-il si nous soumettons au détecteur des ondes entretenues ?

Nous allons, une fois encore, avoir recours à la représentation graphique.

Des oscillations entretenues seront représentées comme nous l'avons fait figure 33. C'est, en somme, un mouvement vibratoire des électrons analogue au mouvement pendulaire.

Nous savons que la détection pourra consister à supprimer toutes les parties des oscillations situées dans la partie B.

La représentation du courant détecté (on dit encore rectifié ou redressé) correspond à la figure 34.

Essayons de comprendre ce qu'un tel courant peut produire sur un écouteur téléphonique. La membrane vibrante reçoit un grand nombre d'impulsions par seconde, toutes ces impulsions étant dans le même sens.

Il est évident que, dans ces conditions, la plaque du téléphone est déformée dans un sens quelconque. Cela peut se traduire, soit par une attraction, soit par une répulsion, en tous cas par une déformation permanente.

En somme, tout se passe comme si l'enroulement de l'écouteur téléphonique était traversé par un courant continu ; c'est-à-dire un courant d'intensité moyenne constante.

Or, l'intensité d'un courant comme celui qui correspond à la figure 34 est précisément constante. C'est d'ailleurs la ligne que nous avons figurée en pointillé.

On peut donc, encore cette fois, raisonner uniquement sur le courant moyen fournit par la détection et nous rejoignons ainsi une conception déjà exposée plus haut.

D'ailleurs, pratiquement, on s'efforce de réaliser des circuits tels que le courant moyen ne soit pas une simple vue de l'esprit, mais qu'il corresponde bien à une réalité mesurable. Notons que c'est très simple.

Supposons qu'une tension analogue à celle qui correspond à la figure 34 soit disponible aux bornes A B d'un circuit figure 35.

Plaçons le récepteur téléphonique entre ces bornes. L'inductance du récepteur est relativement grande. Le courant qui traverse le téléphone serait donc faible, car sa fréquence est très grande.

Plaçons aussi aux bornes un condensateur. Toutes les impulsions unidirectionnelles vont avoir pour effet de charger le condensateur. Et celui-ci se déchargeant régulièrement dans l'écouteur, c'est bien un courant continu qui traversera l'enroulement.

En fait, le condensateur joue le rôle d'un « intégrateur ». Il convertit des poussées espacées en une poussée régulière et continue.

On pourrait encore observer le phénomène sous un angle différent. Nous avons expliqué plus haut qu'un courant (ou une tension) variable, de forme quelconque, pouvait être décomposé en une somme de courants sinusoïdaux ou courants alternatifs ordinaires.

En appliquant ce principe au courant redressé provenant d'une onde entretenue, on pourrait démontrer que tout se passe comme s'il y avait dans le circuit un courant continu, et un courant variable superposés.

Dans la figure 35, on admettra alors que le rôle du condensateur C est de laisser passer le courant variable, le courant continu ne pouvant s'écouler qu'à travers le récepteur téléphonique.

Amplitude variable de l'oscillation entretenue.

Nous avons supposé que l'amplitude mesurée par les lignes pointillées de la figure 28 était constante.

Nous pouvons cependant admettre qu'il soit possible de disposer d'oscillations entretenues dont l'amplitude soit variable.

La représentation graphique aura dans ce cas l'allure de la figure 36.

Nous pouvons déterminer immédiatement, d'après les résultats acquis précédemment, que la détection de ce courant aura les conséquences suivantes.

La plaque du téléphone subira, de A en B, une attraction croissante, puis de B en C une attraction décroissante. L'action sera très sensiblement nulle en C. De C en D l'attraction sera de nouveau croissante.

En somme, cette fois encore, nous aurions pu directement raisonner sur le courant (ou la tension) moyenne, après détection, dont nous avons indiqué l'allure par un tracé en pointillé.

Or, le graphique figure 1 et les résultats que nous avons exposé nous permettent maintenant de comprendre comment on peut concevoir la Radiotéléphonie, aussi bien à l'émission qu'à la réception.

Toutefois, avant de passer aux explications nécessaires, il est indispensable de faire connaissance avec quelques notions d'acoustique et de téléphonie ordinaire.


CHAPITRE QUATRIEME

UN PEU D’ACOUSTIQUE ET DE TÉLÉPHONIE

Vibrations sonores.

Il s’agit encore ici de vibrations. Nous avons exposé plus haut ce qu’on devait entendre par mouvement vibratoire. Nous avons étudié deux cas particuliers : celui du pendule et celui d’un électron vibrant. Le son ou la vibration sonore est produit par la vibration mécanique d’un corps.

Rien n’est plus facile à mettre en évidence. Par exemple, on munira un diapason d’une petite pointe légère. On provoquera sa vibration en lui donnant un choc et on le déplacera très rapidement sur une feuille recouverte de noir de fumée.

Cette petite pointe trace une courbe d’enregistrement qui est une sinusoïde. Nous avons ainsi tracé directement la représentation graphique d’une vibration.

On peut naturellement perfectionner cette expérience en faisant défiler sous le diapason un cylindre enregistreur entraîné par un mouvement d’horlogerie. L’amplitude de la vibration est faible. Elle est cependant fort visible (fig. 37).

Sans appareil, on peut se rendre compte que les branches du diapason sont en vibration.

L’archet du violon n’a point d’autre rôle que de communiquer aux cordes la vibration qui produit le son.

Dans les instruments à vent, l’orgue, l’accordéon, etc... C’est une vibration qu’on communique à l’air.

L’air qui vibre subit des dilatations et des compressions successives. L’air lui-même n’entre pas en mouvement, ou, plutôt, ses molécules oscillent sur place.

La vibration sonore se propage dans l’air, à la vitesse relativement faible de 340 mètres par seconde. Cette vitesse est sensiblement plus grande dans l’eau, dans le bois, le métal, etc...

La vibration sonore, conduite généralement par l’air, arrive jusqu’à notre oreille et se traduit physiologiquement par la sensation sonore.

CARACTERES GENERAUX DU SON

Intensité.

L’intensité de la sensation dépend tout naturellement de l’amplitude des vibrations. La propagation réduit l’amplitude. Il y a naturellement une perte en route. Un son très fort à l’origine s’affaiblit en se propageant.

Sons graves et sons aigus.

Un son peut être grave (voix de basse) ou aigu (soprano). Physiquement, la hauteur acoustique du son est déterminée par sa fréquence. Plus la fréquence est élevée et plus le son est aigu.

L’oreille cesse de nous traduire la vibration par une sensation lorsque la fréquence n’est plus comprise entre certaines limites.

Au-dessous de 36 vibrations par seconde, au-dessus de 30.000 vibrations, l’oreille ne distingue plus rien. Ces chiffres extrêmes sont des moyennes. Ils peuvent notablement différer suivant les circonstances et suivant les individus. Certaines personnes ne perçoivent pratiquement rien au - dessus de 10.000 périodes par seconde.

D’autre part, la sensibilité de l’oreille n’est point la même pour les différentes fréquences. Aux deux

extrémités de l’échelle sonore, il faut augmenter considérablement l’intensité sonore pour que l’oreille puisse distinguer quelque chose.

Le maximum de sensibilité de l’oreille, variable encore avec les individus, se tient généralement entre 800 et 1.600 périodes par seconde.

On admet que les fréquences usuelles sont comprises entre 100 et 4.500 périodes par seconde.

Le Timbre.

L’oreille distingue sans peine le « la » du diapason du même « la » frappé sur le clavier du piano ou joué sur le violon. Cette qualité, qui permet de distinguer des sonorités dont la fréquence est la même est le timbre.

Comment expliquer physiquement le timbre ? La théorie admise encore aujourd’hui est celle des harmoniques, due à Huygens.

Le son des instruments n’est pas « pur ». Il faut entendre par là que la vibration n’est pas sinusoïdale. Ce qui impose la fréquence (ou hauteur acoustique), c’est la vibration fondamentale. Mais à cette vibration, sont ajoutées d’autres vibrations harmoniques ; c’est-à-dire dont les fréquences sont doubles, triples, quadruples, etc... La vibration sonore est donc une résultante. Le timbre est déterminé par le nombre et l’amplitude des harmoniques. Dans certaines sonorités, l’harmonique 2 sera prépondérant; il sera absent dans d’autres, etc...

Le son « pur » - caractérisé par l’absence d’harmoniques - ressemble un peu à celui de la flûte : c’est un sifflement.

Certains instruments, comme les cordes et les cuivres, sont particulièrement riches en harmoniques, la voix humaine aussi.

Pour reconstituer un son, il ne suffira pas de reproduire le son fondamental. Pour que la copie soit exacte, il faudra ajouter tous les harmoniques, avec l’amplitude relative voulue.

Quelques mots sur l’oreille.

L’ouïe est un sens étrange. On entend des variations extrêmement faibles de fréquence.

Qu’un musicien joue très légèrement faux, c’est-à-dire avec une fréquence inexacte, notre oreille le percevra immédiatement.

Par contre, l’oreille appréciera très difficilement des comparaisons d’intensité. Nous ne pouvons comparer des puissances acoustiques qu’entre deux sonorités de même fréquence et à condition que l’on passe très rapidement d’un cas à l’autre.

Si l’intensité acoustique varie lentement, l’oreille ne perçoit aucune variation. Le même son pourra être jugé faible ou puissant suivant que le son entendu précédemment aura été lui-même puissant ou faible.

L’oreille s’accoutume des pires déformations sonores. Elle s’intoxique et devient incapable, après cela, de juger la qualité d’une réception.

Dans une reproduction où le son fondamental est absent, mais où sont présents certains harmoniques, elle pourra faire, en quelque sorte, une synthèse du son initial et donner l’illusion de son existence.

Les fréquences fondamentales supérieures à 4.500 périodes par seconde peuvent être considérées comme négligeables. Par contre, l’oreille distingue parfaitement que la reproduction n’est point parfaite quand les harmoniques correspondants à ces fréquences sont supprimés.

Les sons musicaux et les bruits.

Tout ce qui précède a trait aux sons musicaux, c’est-à-dire à ceux qui sont normalement utilisés dans la musique. Mais il est cependant d’autres sons auxquels on rattache plus difficilement l’idée de fréquence : ce sont les bruits.

Un bruit qui n’a point le caractère musical est constitué par des vibrations complexes de diverses fréquences. Mais il n’y a point de rapport arithmétique simple entre les vibrations. En d’autres termes, si on considère qu’il y a une vibration fondamentale, la fréquence des harmoniques est quelconque.

La nuance entre un son musical et un bruit est parfois presque insaisissable. En effet, un son quelconque a toujours une fréquence fondamentale.

C’est si vrai, qu’un jeu de quelques planches sur lesquelles on frappe avec un marteau constitue un xylophone, instrument sur lequel on peut jouer des « airs ».

Traduction électrique du son.

Nous avons appris plus haut ce qu’est un écouteur téléphonique. Supposons donc que nous alimentions la bobine d’un téléphone avec un courant purement sinusoïdal. Il est certain que les vibrations de la plaque métallique seront, elles aussi, sinusoïdales. Elles seront communiquées à l’air ambiant et l’oreille aura la sensation d’un son pur.

On peut donc considérer le courant sinusoïdal comme la traduction électrique d’un son pur.

Si l’on superpose plusieurs courants sinusoïdaux, on obtiendra tout naturellement un courant complexe, lequel, transformé en son, grâce au téléphone, donnera une vibration sonore complexe.

On peut donc concevoir que chaque vibration puisse être traduite électriquement.

Mais le courant électrique se propage aussi loin qu’on veut à l’aide de conducteurs...

Transmission téléphonique.

Les lignes précédentes nous découvrent le principe même de la téléphonie.

Un organe électrique, appelé « microphone » est frappé par les vibrations sonores. Son rôle est de les convertir en courants électriques ou courants téléphoniques. Nous comprenons déjà que la fréquence du courant sera la même que celle de la vibration à transmettre.

S’agit-il de transmettre le son d’un diapason donnant 1.000 périodes par seconde ? Le courant téléphonique aura une fréquence de 1.000 périodes par seconde.

S’agit-il de transmettre un son musical comprenant une vibration fondamentale à 120 périodes, l’harmonique 2, l’harmonique 3 et l’harmonique 5 ? Le courant téléphonique sera constitué par des courants alternatifs de fréquence 120. 240, 360 et 600 périodes par seconde. D’autre part, l’amplitude relative de ces divers courants sera la même que l’amplitude correspondante des vibrations acoustiques.

Les courants alternatifs ainsi obtenus sont acheminés à l’aide d’une ligne téléphonique constituée par deux conducteurs.

Enfin, à l’arrivée, les courants alternatifs sont convertis en vibrations sonores, à l’aide d’un écouteur téléphonique, par exemple. Le schéma d’une transmission téléphonique est donc celui de la figure 38.

Nous ne voulons pas décrire en détail les principes de réalisation possible pour le microphone. Il y en a d’ailleurs un grand nombre. Ne citons que les noms de quelques-uns: microphone à charbon, électromagnétique, électrostatique, électrodynamique, etc...

De même, l’organe récepteur, chargé de convertir le courant électrique en vibrations sonores, peut être construit de plusieurs façons et utiliser des principes différents.

Vers la Téléphonie sans fil.

Sachant transformer la vibration sonore en courant électrique et, par une transformation inverse, recréer la vibration initiale, nous pouvons transporter la parôle ou la musique à la distance que nous voulons. Toutefois, il est nécessaire que le lien matériel du conducteur existe entre les deux points. Il ne reste qu’un pas à franchir pour réaliser ce que beaucoup d’auditeurs considèrent comme un miracle : la téléphonie sans fil.

Nos lecteurs ont sans doute déjà compris que c’est le rayonnement hertzien qui va nous permettre de franchir ce pas décisif.

Nous savons, d’une part, obtenir un courant variable qui soit, en quelque sorte, l’image électrique d’une vibration sonore. Ce courant est astreint à se déplacer le long d’un conducteur. Les fréquences qu’il met en jeu sont les mêmes que les fréquences acoustiques. C’est dire que, directement, elles ne peuvent donner lieu à un rayonnement utilisable.

D’autre part, nous savons qu’une oscillation entretenue à haute fréquence produit un rayonnement qui se propage avec la vitesse de la lumière. Ce rayonnement produit dans tous les conducteurs qu’il touche un courant semblable au courant qui lui a donné naissance.

Ne suffira-t-il pas de combiner ces deux courants, le courant de haute fréquence avec le courant téléphonique ou de basse fréquence pour obtenir précisément ce que nous cherchons ?

La modulation d’une onde entretenue.

Ayons recours, une fois de plus, à la représentation graphique.

Nous avons représenté, figure 39, un courant de haute fréquence, ou, si l’on préfère, une onde entretenue pure.

Plus loin, figure 40, nous avons représenté un courant de fréquence téléphonique.

Nous pouvons fort bien concevoir qu’en les faisant agir l’un sur l’autre, nous obtenions finalement un courant, celui de la figure 41. Nous obtenons ainsi un courant comme celui de la fig. 41 qui est un courant de haute fréquence modulé par le courant de basse fréquence. Ainsi, nous avons réalisé la téléphonie sans fil.

En effet, une oscillation modulée est toujours une oscillation à haute fréquence. Elle est, par conséquent, apte à produire un rayonnement.

Le fait de la modulation est simplement de faire varier l’amplitude en accord avec le courant téléphonique.

Mais il est certain que ces variations relatives d’amplitude se reproduiront dans le rayonnement et, par conséquent, dans le courant que ce rayonnement fera naître. Le courant de réception sera lui-même modulé.

Nous avons appris déjà qu’une telle oscillation, soumise à un détecteur, aura pour résultat la production d’un courant moyen et celui-ci aura tout justement l’allure de la modulation. C’est dire alors que l’écouteur téléphonique actionné par le détecteur sera parcouru par du courant de forme équivalente à la fig. 40. C’est dire, enfin, que nous avons réalisé la Téléphonie sans fil.

Revenons aux faits.

En fait, on peut considérer que l’oscillation à haute fréquence (fig. 39) est un simple moyen de transport pour le courant téléphonique. Il faut cet intermédiaire pour réaliser la communication sans liaison apparente. Mais, à l’arrivée, on se débarrasse du rayonnement ou plutôt des courants de haute fréquence.

Pour réaliser la modulation de l’onde entretenue, il ne faudrait pas croire qu’il suffise d’admettre pêle-mêle, dans un circuit, un courant de haute fréquence et un courant de basse fréquence téléphonique. Il faut, au contraire, avoir recours à des dispositifs compliqués.

En superposant simplement les deux courants, on obtiendrait un courant de fréquence téléphonique.

La modulation a pour résultat de nous fournir un courant de haute fréquence suivant le rythme de la fréquence téléphonique.

En somme, il faut obtenir une vibration électronique d’amplitude variable.

On peut aussi comprendre qu’il s’agit simplement de dessiner des variations à basse fréquence en s’aidant d’oscillations à haute fréquence. Le terme « dessiner » est pris ici dans un sens figuré.

La figure 41 pourrait laisser croire que le dessin ne peut être qu’approximatif. Or, en fait, il n’en est rien. La variation à basse fréquence (ou téléphonique) peut être reproduite dans ses plus minces détails.

En effet, les fréquences relatives dans la figure 41 n’ont pas été respectées.

Supposons qu’il s’agisse de « moduler » une onde

de 300 mètres avec une fréquence acoustique de 1.000 périodes par seconde.

La fréquence correspondant à une longueur d’onde de 300 mètres est de 1.000.000 de périodes par seconde. C’est dire que pour « dessiner » une seule période de l’oscillation à basse fréquence, nous disposerons de mille oscillations à haute fréquence.

Si nous avions utilisé une longueur de un millimètre pour une seule période de l’oscillation à haute fréquence, il nous aurait fallu donner un mètre à la longueur C D E (fig. 40).

C’est cette différence de fréquence qui permet à l’oscillation à haute fréquence d’épouser exactement les contours du courant téléphonique et, à la réception, d’en permettre la reproduction jusqu’en ses plus minces détails.


CHAPITRE CINQUIEME

LA LAMPE DIODE

Dans les pages précédentes, nous avons assisté à des manifestations produites par l’électron. Mais cette particule extraordinairement petite d’électricité négative restait attachée à la matière. Nous avons assisté aux sauts des électrons passant d’un atome à un autre atome; mais l’électron en vagabondage finissait toujours par rentrer en servitude. Il échappait à l’attraction d’un noyau pour retrouver bientôt l’attraction d’un autre noyau.

Ces sauts électroniques pouvaient sembler considérables : à la température ordinaire un électron peut franchir parfois deux mille atomes avant d’être capté. Mais, à mesure que s’élève la température, les atomes du métal sont en proie à des vibrations de plus en plus intenses. Ils s’opposent ainsi aux sauts des électrons. Certains de ceux-ci, gênés dans leurs ébats, n’hésitent pas à quitter le métal pour tenter de trouver ailleurs un terrain plus propice.

Ainsi, si l’on chauffe un métal, on observe que des électrons sont « vaporisés ». Mais dans les conditions normales, les molécules de l’air s’opposent au voyage des électrons. C’est pourquoi il est préférable d’opérer dans le vide. Mais comment chauffer un métal dans le vide  ? Le moyen qui se présente immédiatement à l’esprit est le courant électrique.

Effet Edison.

Imaginons donc l’expérience suivante : un filament métallique est placé dans une ampoule où règne un vide aussi parfait que possible. Il est porté à l’incandescence au moyen d’un courant électrique (fig. 42).

A l’intérieur de l’ampoule est disposée une petite plaque métallique complètement isolée du filament.

Intercalons entre la « plaque » et le filament un appareil de mesure très sensible.

Dès que le filament est assez chaud, on observe le passage d’un courant. Or, il faut bien que ce courant traverse le vide entre le filament et la plaque !

L’explication du phénomène est fort simple. Des électrons sont expulsés par le métal du filament. Quelques-uns atteignent la plaque. Celle-ci tend donc à prendre une charge négative par rapport au filament. Le courant qu’on observe n’est que la conséquence de ce déséquilibre.

Cette expérience peut sembler sans intérêt. Il est curieux de constater que le courant peut traverser le vide... Est-ce une simple curiosité ? C’est sans doute, ce qu’avait pensé Edison lorsqu’il découvrit ce phénomène. Ne voyant aucune application pratique, il laisse la chose de côté pour chercher autre chose.

Ainsi, il était passé à côté d’une des plus importantes découvertes du siècle !

On pourrait trouver là matière à réflexion. L’utilité ne doit jamais être le but du chercheur. Certaines observations semblent avoir un caractère purement théorique et, pourtant, les résultats qu’elles donnent peuvent, immédiatement, se plier aux applications pratiques les plus considérables. L’observation d’Edison contenait en possibilités toute la Radiodiffusion, le cinéma sonore et, sans doute, la Télévision ! il fallait seulement expliquer le fait et en tirer les conséquences possibles.

On cherche parfois un peu naïvement quel est l’inventeur de la Radio. Il est certain que c’est l’inventeur de la lampe à trois électrodes... Or, cet inventeur n’a fait que perfectionner la valve de Fleming; celle-ci n’étant, à son tour, qu’une application des idées de Richardson...

Les tubes à émission thermoélectroniques ont reçu des applications les plus diverses. Ils permettent aussi bien l’émission que la réception. Ils sont utilisés en astronomie, aussi bien que pour les prospections souterraines. L’ampoule Coolidge, permettant la production des rayons X, est une application différente des mêmes phénomènes. Sans la lampe amplificatrice, l’enregistrement sonore aussi bien que la restitution cinégraphique, n’auraient pu avoir le développement prodigieux que l’on sait.

La musique électrique, les orgues synthétiques sont encore un autre domaine d’applications... Sans doute faudrait-il des pages et des pages pour énumérer simplement toutes les applications.

Toutes ces réalisations, d’un caractère presque miraculeux, ont pour origine première la petite expérience que nous venons de décrire...

Essayons d’exposer maintenant les phénomènes en nous efforçant d’en dégager les conséquences.

L’évasion d’un électron.

Imaginons qu’il nous soit possible de suivre un électron dans le métal incandescent...

Il s’efforce de sauter d’un atome à un autre atome. Sa vitesse moyenne de déplacement spontané est considérable puisqu’elle peut atteindre mille kilomètres par seconde. Le trajet est tout à fait irrégulier, il l’est d’autant plus que la température est plus élevée. Non pas que la vitesse spontanée soit variable; elle est au contraire constante, quelle que soit la température. Mais les vibrations atomiques ont des amplitudes de plus en plus grandes à mesure que la température s’accroît.

Ainsi, à une température élevée, l’électron subira des chocs nombreux et violents. Sachant tout cela, nous admettons facilement qu’au hasard de ces déplacements l’électron puisse être chassé du métal. Mais avec quelle vitesse  ?

Cela est évidemment très variable. La vitesse moyenne est de mille kilomètres par seconde... Parfois l’électron va dix fois plus vite, parfois il va dix fois plus lentement.

Aussi pourra-t-il s’évader avec vélocité ou n’avoir, au contraire, qu’à peine l’énergie de quitter le métal.

Autour du filament.

Supposons pour un instant que la « plaque » soit inexistante. Que va faire notre électron en mal d’indépendance ? Chaque atome qui perd un électron devient un « ion » positivement électrisé.

L’électron qui s’en va, laisse donc, derrière lui, un « ion positif ». Cet ion est donc un centre qui attire l’électron fugitif et qui, naturellement, freine son essor.

L’électron qui part très vite, peut aller assez loin — celui qui part doucement va moins loin. L’un comme l’autre finiront par s’arrêter. Et après, que voulez-vous qu’ils fassent  ? Rien de mieux que de revenir piteusement en arrière...

Ainsi donc, au début de l’expérience, de nombreux électrons s’en vont. Plus ils sont nombreux et plus le filament devient positivement électrisé. Les électrons qui restent ont donc de plus en plus de mal à s’évader.

D’autre part, les électrons vagabonds, après s’être éloignés, reviennent peu à peu vers le filament, ce qui permet à d’autres électrons de partir.

En d’autres termes, il existe, autour du filament un véritable nuage d’électrons, nuage négativement électrisé qui refoule dans le filament les électrons que tenteraient l’envie de partir... (fig. 43).

Dans ce nuage on trouve naturellement des électrons animés de vitesses assez différentes ; mais, cependant relativement faibles, puisqu’il est précisément constitué par les électrons qu’a bloqué l’attraction du filament.

Le nuage électronique constitue donc une véritable charge électrique diffuse dans l’espace entourant le filament, d’où son nom de charge d’espace ou charge spatiale.

Courant anodique.

Nous sommes maintenant à même de comprendre pourquoi le courant accusé par le milliampèremètre (fig. 42) peut varier avec la distance qui sépare la plaque du filament. Si la plaque est au voisinage même du filament, de nombreux électrons venant toucher cette plaque sont captés. La plaque étant alors négativement électrisée par rapport au filament, un courant s’établit.

Si la plaque est éloignée, seuls, les électrons à grande vitesse peuvent espérer l’atteindre. Ils seront naturellement beaucoup moins nombreux - et immédiate conséquence - le courant est beaucoup moins intense.

Nature du filament ou cathode.

Les conducteurs, suivant leur nature, perdent plus ou moins facilement leurs électrons. Cela veut dire que, pour obtenir la vaporisation d’un nombre égal

d’électrons, il faudra communiquer au filament une température plus ou moins élevée. Pour les applications qui vont suivre, il est naturellement avantageux d’utiliser des corps émettant des électrons à basse température.

Le tungstène émet des électrons avec assez de facilité. Cependant le thorium, lui, est, à cet égard, très supérieur. Certains oxydes de métaux alcalins, comme l’oxyde de baryum, présentent encore des avantages marqués.

On a commencé par utiliser le tungstène pur (ancienne lampe triode 0,7 Am.). Puis, un peu plus tard, on utilisa les filaments en tungstène thorié (lampe micro). Enfin, actuellement, la surface émettrice ou cathode est constituée par un conducteur recouvert d’oxydes spéciaux, en général de baryum.

Chauffage direct ou indirect.

Il faut que le filament ou la cathode soit porté à une température suffisante; peu importe, d’ailleurs, par quel moyen. Nous avons tout à l’heure utilisé If courant électrique. Il est certain que les faits seraient inchangés si le chauffage était assuré par une autre source. On pourrait aussi bien chauffer la cathode par le gaz ou le pétrole ; les électrons n’en continueraient pas moins à tenter leur évasion.

Les premiers tubes contenaient réellement le filament chargé de produire les électrons. Mais il est naturellement impossible de construire un filament en oxyde de baryum.

La seconde étape — encore en pratique pour les lampes de puissance — a consisté à utiliser des filaments recouverts d’oxydes.

Enfin, la troisième étape a consisté à séparer les deux fonctions de chauffage et d’émission électronique. La cathode est constituée par un tube de métal recouvert d’oxyde.

Elle est chauffée par un filament intérieur, torsadé et isolé de la cathode par un cylindre réfractaire.

Ce système de chauffage indirect a, parmi d’autres, les avantages suivants :

  1. Isolement électrique entre cathode et courant de chauffage;
  2. Cathode dont tous les points sont au même potentiel ;
  3. Grande surface de cathode, d’où grande émission possible.

Après cette petite incursion dans le domaine pratique, revenons un peu vers les faits théoriques. Dans notre texte, il ne sera maintenant plus question de filament, mais de « cathodes ». Nos lecteurs sauront qu’il s’agit de l’électrode chargée de produire des électrons en liberté.

Influence de la tension de plaque.

Reprenons sous une forme un peu plus pratique l’expérience de la fig. 42. Dans une ampoule où règne un vide aussi parfait que possible, nous avons disposé deux électrodes : une cathode chargée de vaporiser des électrons C et une plaque, chargée de les recueillir.

Nous avons ainsi constitué le plus simple des tubes à plusieurs électrodes : le tube diode — diode, parce qu’il a deux électrodes.

Nous avons reconnu plus haut que le courant indiqué par l’appareil de mesure était relativement faible, à cause de la formation d’une charge d’espace. Celle-ci constitue un nuage d’électricité négative qui refoule les électrons et les empêche d’atteindre la plaque.

Introduisons une pile dans le circuit — en connectant le pôle positif du côté de la plaque. Ainsi la plaque sera positivement électrisée par rapport à la cathode. Grâce à cela la plaque devient un centre d’attraction violent pour les électrons. N’oublions pas, en effet, qu’un corps positivement électrisé est un corps qui présente une raréfaction d’électrons. Aussi, les électrons de la charge spatiale se précipitent en foule vers la plaque. L’appareil de mesure indique maintenant un courant beaucoup plus intense que tout à l’heure.

Le champ électrique produit par la plaque a neutralisé l’effet de la charge d’espace.

Nous augmenterons tout naturellement l’intensité du courant en augmentant la tension positive appliquée à la plaque.

Avec une tension suffisante, les électrons sont violemment arrachés de la cathode et se précipitent vers la plaque qu’us heurtent.

Ce bombardement silencieux, s’il atteint une certaine violence, a rapidement des conséquences visibles.

La plaque s’échauffe. L’énergie cinétique de chaque électron se convertit en chaleur exactement comme l’énergie cinétique d’une balle se convertit en chaleur lorsqu’elle vient s’écraser contre une plaque de blindage...

En poussant un peu l’expérience, nous verrons la plaque s’échauffer jusqu’au rouge. Elle pourra même atteindre la température de fusion et de vaporisation si la nature de la cathode permet une émission suffisante d’électrons.

Dans cette expérience et dans les plus nombreuses applications qui vont suivre, la plaque étant portée à une tension moyenne positive on lui donne souvent le nom d’anode. La pile ou la source de courant qui sert à électriser la plaque est nommée source ou tension anodique.

C’est à cette source qu’est empruntée l’énergie nécessaire à la circulation du courant anodique.

Propriétés de la diode.

Sans tension anodique (fig. 42) le courant électronique est très faible. La moindre tension lui donne immédiatement une valeur notable. Par contre, l’application d’une tension inverse fait cesser immédiatement le courant. C’est facilement explicable. Les électrons se trouvent refoulés vers la cathode au lieu d’être attirés vers l’anode. Si quelques-uns sont entraînés vers l’anode par leur mouvement propre, ils subissent une répulsion de plus en plus grande à mesure qu’ils se rapprochent. Leur vitesse se réduit progressivement, et, finalement, ils préfèrent s’en aller dans une autre direction pour retourner vers la cathode.

La diode constitue donc un système qui ne peut laisser passer le courant que dans un seul sens. C’est un redresseur de courant. Mais nous savons aussi que cela peut être un détecteur d’oscillations.

Si nous appliquons une tension alternative entre anode et cathode, il n’y aura passage d’un courant que lorsque l’anode sera positive. Ainsi, le courant sera toujours dans le même sens et, par conséquent, on transforme un courant alternatif en courant unidirectionnel.

C’est à cette propriété que la diode doit d’être appelée encore une valve (valve de Fleming). On lui donne encore le nom de Kenotron. Ce dernier terme est généralement réservé aux diodes capables de redresser du courant ou des tensions intenses.

Applications de la diode.

1° Redressement du courant.

Pour assurer le fonctionnement des récepteurs, il est nécessaire de disposer d’une source de courant continu à haute tension. Or, les récepteurs modernes sont directement alimentés par le courant alternatif. Il s’agit donc de transformer ce courant alternatif en courant continu. C’est la valve qui se charge de cet office.

On réalise donc le montage de la fig. 45. Chaque fois que le sens du courant est tel que la plaque est portée à une tension positive par rapport à la cathode, la résistance opposée aux déplacements électroniques par l’espace cathode-plaque est très faible. Elle devient pratiquement infinie quand la plaque est négative par rapport à la cathode. Entre les bornes A et B on peut donc recueillir une série d’impulsions comme celles que nous avons hachurées sur la figure 46.

Il ne s’agit plus de courant alternatif, mais il ne s’agit pas encore de courant continu. Il faut « filtrer » le courant unidirectionnel obtenu.

Le procédé classique est schématisé fig. 47. On peut considérer que le courant pulsatoire de la fig. 46 est constitué par un courant continu superposé à un courant alternatif. Il s’agit de se débarrasser de ce dernier. Il faut savoir que :

La composante continue - qui nous intéresse - peut donc arriver, sans pertes jusqu’aux bornes de C2. Par contre, la composante alternative trouve deux court-circuits successifs dans les condensateurs C1 et C2...

La conséquence est qu’au terme du circuit, pour peu que l’inductance et les condensateurs aient des valeurs suffisantes, nous recueillerons une tension pratiquement continue.

Valve biplaque.

Pratiquement, on utilise une disposition des circuits qui permet d’obtenir un courant redressé plus voisin du courant continu. On emploie dans ce but une valve biplaque constituée par une cathode ou filament et deux plaques symétriques, isolées l’une de l’autre.

Le montage est schématisé fig. 48. L’enroulement chargé de fournir la haute tension comporte une prise médiane.

Dans ces conditions, il est clair que lorsque le point A est positif par rapport à B, le point C est négatif et inversement Une plaque se trouve donc négative quand l’autre est positive.

La forme du courant recueilli entre les bornes D et E est indiquée fig. 49. C’est déjà presque du courant continu.

Il faut remarquer que la tension disponible entre B et A est toujours égale à la moitié de la tension

existant entre A et C. Pour obtenir une tension de 200 volts entre D et E il faut donc utiliser un transformateur capable de donner 2 X 200 = 400 volts.

Par contre, l’intensité moyenne qui parcourt chaque enroulement n’est que la demi-intensité totale.

Chauffage de la cathode.

Généralement, les valves de redressement oc Kenotrons ne comportent point une cathode à chauffage indirect mais sont simplement munies d’un filament recouvert d’oxydes.

Le chauffage de ce filament est obtenu par un enroulement du transformateur spécialement prévu pour cela.

Il n’y a aucun inconvénient à utiliser pour cela le courant alternatif.

2° Détection.

Nous savons déjà que le principe utilisé est exactement le même que dans l’application précédente. La différence porte simplement sur la fréquence des courants qu’il s’agit de rectifier.

Les « Kenotrons » ou valves de redressement sont généralement alimentés avec un courant alternatif industriel à 50 périodes par seconde. Quand il s’agit de détection on est en présence de courant dont la fréquence est de plusieurs dizaines de milliers de périodes par seconde.

D’autre part, dans le premier cas, on cherche à obtenir du courant continu.

Dans le second cas, l’opération de redressement ne doit pas être conduite aussi loin puisqu’on veut obtenir du courant à basse fréquence, ou courant téléphonique.

Schémas classiques.

Les tensions qu’il s’agit de détecter sont généralement disponibles aux bornes d’un circuit oscillant.

Un schéma extrêmement simple et qui est généralement utilisé est celui de la figure 49.

Le fonctionnement est facile à saisir.

Chaque période produira donc une tension aux bornes de R, tension toujours dans le même sens.

Le rôle du condensateur C a été exposé plus haut. Il intègre les impulsions unidirectionnelles, et, en fait, élimine la composante à haute fréquence.

Quant à la composante en courant continu, elle est éliminée par le condensateur C2.

Entre les bornes A et B, on recueille donc le courant téléphonique qu’on désire obtenir.

Variante I.

Le schéma figure 50 nous montre une variante du montage précédent.

Les mêmes éléments sont utilisés. La disposition est seulement différente. Le fonctionnement n’est point exactement le même.

Pour les alternances telles que l’anode soit positive, il se produit pratiquement un court-circuit aux bornes de R, puisque la résistance anode-cathode devient très faible.

Pour les autres alternances, une tension est développée aux bornes de R. Cette tension, recueillie en A B, constitue le courant téléphonique. C’est encore le condensateur C qui se charge de l’intégration.

Variante II.

On peut utiliser une double diode et faire, en quelque sorte, la transposition du montage fig. 48. On obtient ainsi la disposition figure 51 (oubliée dans le livre).

On peut croire à priori, que cette détection complète ait des avantages par rapport aux schémas précédents. C’est une erreur. Il n’y a en fait que très peu d’avantages. On peut remarquer, en effet, que si les tensions produites par les deux diodes s’ajoutent, il a été nécessaire de prévoir un circuit oscillant avec prise médiane. Par conséquent, la tension développée entre cathode et une anode est la moitié de la tension à haute fréquence disponible. La tensfon téléphonique en volts est donc finalement la même.

L’avantage du circuit est de permettre une élimination plus facile de la tension à haute fréquence. Par contre, il est d’une réalisation pratique beaucoup plus délicate.

On pourrait imaginer beaucoup d’autres variantes. Mais toutes peuvent se ramener aux trois schémas précédents.


CHAPITRE SIXIEME

LA LAMPE TRIODE

II ne faut rien, ou presque rien, pour passer de la lampe diode que nous venons d'étudier, à la lampe triode que nous allons étudier maintenant. Il suffit d'intercaler entre les deux électrodes une troisième électrode perforée ou à claire-voie : une grille.

Et pourtant, le progrès accompli est immense ! Aujourd'hui même, il est encore impossible de l'évaluer car chaque jour amène des applications nouvelles de la lampe à plusieurs électrodes, mille fois plus merveilleuse que celle d'Aladin !

Avant l'apparition du tube diode, on savait redresser le courant et « détecter » les oscillations ; d'autres méthodes aussi élégantes, aussi efficaces avaient été imaginées et mises au point. Mais rien encore n'a pu remplacer les tubes électroniques.

C'est l'Américain Lee de Forest qui eut l'idée de placer une troisième électrode ou grille, entre l'anode et la cathode de la valve de Fleming.

Rôle de la grille

La grille est, comme le veut indiquer son nom, une électrode à claire-voie. Cela peut-être un mince grillage, ou, plus simplement, une spirale métallique.

Cette électrode est placée au voisinage de la cathode et l'entoure complètement.

Schématiquement, l'ensemble des trois électrodes est représenté comme Fig. 52 ou Fig. 53.

Supposons que la grille soit restée isolée dans la lampe. Il est certain que rien n'est changé. L'obstacle constitué par les mailles de la grille est très faible. Et puis, il faut penser que les électrons sont attirés par la plaque. Cette attraction se chargera, par conséquent, de guider les électrons et leur fera éviter l'obstacle.

Ainsi, notre lampe se comportera sensiblement comme une valve. Grâce à la tension anodique appliquée, un courant intense circulera entre la cathode et l'anode. C'est ce qui nous permettra de mettre en évidence le milliampèremètre M du schéma figure 49.

Supposons, maintenant, que nous portions la grille à une forte tension négative par rapport à la cathode. On peut utiliser une pile pour arriver à ce but (Fig. 55).

Nous observons immédiatement que le courant anodique cesse.

Le fait constaté s'explique sans peine. Notons d'abord que la grille est au voisinage même de la cathode.

Suivons par la pensée un électron qui, au hasard d'un saut, quitte la cathode. Devant lui se trouve la grille, négativement électrisée. C'est évidemment un centre de répulsion qui tend à faire revenir l'électron vers la cathode, la plaque agit bien comme centre d'attraction ; mais elle est beaucoup plus lointaine. Son action est donc complètement contre-balancée par celle de la grille.

Mais nous avons appliqué une forte tension négative, 15 volts par exemple. Diminuons progressivement la valeur absolue de cette tension.

Nous observons que, pour une certaine valeur, un courant anodique commence à se produire, de nouveau.

A ce moment, nous imaginons aisément que les actions contraires des deux électrodes commencent à s'équilibrer.

Quelques électrons partis avec une vitesse plus grande peuvent franchir la grille et atteindre la plaque.

Notons bien qu'il s'agit seulement de franchir la grille. Après cela, l'action de l'électrode se fait sentir dans le même sens que l'action de la plaque.

A mesure que diminue la valeur absolue de la tension de grille, le courant anodique prend des valeurs croissantes.

Ainsi, nous observons ce fait, déjà digne d'attention, que le courant anodique est sous la dépendance de la tension de grille.

Résistance intérieure

Dans un circuit quelconque, la valeur de l'intensité de courant est déterminée par la tension appliquée.

La loi d'ohm est une relation simple qui lie entre elles l'intensité de courant, la résistance et la tension appliquée.

Par exemple, si l'on augmente la tension appliquée sans rien modifier d'autre, l'intensité de courant se trouve elle-même augmentée. Le rapport entre l'augmentation d'intensité de courant et l'augmentation de tension donne précisément une mesure de la résistance.

Si, par exemple, une augmentation de 2 volts produit une augmentation d'intensité de 0,5 ampères, la résistance en circuit est de 2/0,5 = 4 ohms.

Revenons à la lampe triode. Lorsque nous augmentons la tension appliquée à l'anode, nous observons une augmentation d'intensité de courant. Nous nous expliquons cela facilement puisque nous admettons que l'attraction exercée sur les électrons fugitifs est plus forte... Mais nous pouvons, par analogie, admettre aussi que le tube présente une certaine résistance.

L'artifice exposé plus haut nous permet même de mesurer facilement cette résistance.

Nous déterminons par exemple l'intensité de courant 4,2 milliampères pour une tension anodique de 200 volts. En appliquant une tension de 210 volts, l'intensité de courant est de 4,3.

La résistance est alors  : 210-200/(0,0043-0,0042) ou 10/0,0001 ou 100.000 ohms.

Pourquoi cet artifice ?

Quand on veut déterminer la résistance d'un circuit quelconque, on procède beaucoup plus simplement. On mesure l'intensité de courant qui traverse le circuit pour une tension connue. La loi d'ohm donne immédiatement la valeur de la résistance. Pourquoi ne pas appliquer ce procédé fort simple dans le cas présent ?

Nous avons reconnu plus haut que le courant anodique ne dépendait pas seulement de la tension anodique, mais aussi de la tension de grille. Cela donne immédiatement la réponse à la question du précédent alinéa...

Pour une même valeur de tension, le courant anodique peut passer de zéro à une valeur maximum, suivant la tension appliquée sur la grille. En appliquant la loi d'ohm on ne trouverait forcément qu'un chiffre sans aucune signification.

Nature de la résistance

On peut sans peine comprendre la nature de la résistance d'un conducteur. Les éhctrons cheminant dans le métal se heurtent aux atomes. Ces chocs, correspondant à une perte d'énergie, sont la cause de la résistance. La résistance est, en électricité, l'équivalent du frottement en mécanique. Quand il y a mouvement, une fraction de l'énergie se dégrade en se transformant en chaleur.

Mais dans le cas présent ? L'électron qui part de la cathode pour atteindre la plaque ne rencontre aucun obstacle en chemin... II ne saurait donc y avoir de heurt dans le parcours. Et si nos vues sont exactes, on devrait observer que la résistance de la lampe est nulle.

L'électron est attiré par la plaque. Cette attraction devient de plus en plus grande à mesure qu'il se rapproche.

Son mouvement est facile à définir  : il est uniformément accéléré. C'est le mouvement d'un corps qui tombe vers la terre sous l'influence de la pesanteur,

Mais, s'il n'y a aucun choc dans le parcours, il est certain qu'il s'en produira un à l'arrivée. L'électron, qui peut voyager à la coquette vitesse de 10.000 kilomètres par seconde, est brutalement arrêté par la plaque. Et ces précisément de ce choc que naît la résistance intérieure.

L'énergie cinétique de l'électron est brusquement transformée en chaleur, comme celle d'une balle qui vient s'écraser sur une cible.

Et cela est si vrai qu'on peut constater expérimentalement que le siège de réchauffement est précisément la plaque.

Il n'y a point de dégagement de chaleur dans l'intervalle cathode plaque. Pour un courant anodique trop intense, on observe un échauffement anormal de l'anode, à l'endroit même où s'opère le bombardement électronique.

Coefficient d'amplification

Pour faire varier le courant anodique, nous disposons, en définitive, de deux moyens. Nous pouvons faire varier la tension de plaque ou faire varier la tension de grille.

La tension plaque agit sur le mouvement des électrons ; mais cette action se fait à une distance relativement grande de la cathode.

La grille est, au contraire, au voisinage de la cathode.

Nous pouvons, grâce à cela, imaginer facilement que Faction de la grille doit être plus brutale. En d'autres termes, une variation de tension égale doit produire une variation de courant beaucoup plus grande quand elle s'exerce sur la grille.

C'est bien cela que confirme l'expérience.

Reprenons les chiffres cités tout à l'heure, à titre d'exemple, pour déterminer la résistance intérieure.

Ces deux mesures ont été obtenues à l'aide d'une tension grille de 1,5 volt.

Revenons maintenant à la tension de 200 volts. Nous avons le moyen, en agissant sur la tension de grille, d'obtenir la même variation de courant. Or, Fessai nous montrera, par exemple, qu'il suffit d'appliquer une tension négative de -1,4 volt pour obtenir ce résultat. Avec une tension plaque de 200 volts et une tension grille de -1,4 volt, nous obtenons un courant anodique de 4,3 mA.

En d'autres termes, une variation de 0,1 volt sur la grille a le même effet qu'une variation de 10 volts sur la plaque. L'expérience nous montre que, dans certaines limites, la variation est proportionnelle. Nous sommes donc en droit d'écrire qu'une variation de 1 volt sur la grille produit le même effet qu'une variation de 100 volts sur la plaque.

C'est ce qu'on exprime plus simplement en disant que le coefficient d'amplification, est de 100.

La lampe amplificatrice

L'observation précédente nous permet de concevoir une première application, très importante, de la lampe triode. Nous pouvons utiliser la lampe pour amplifier des variations de courant.

Supposons que, dans un circuit quelconque, nous disposions d'un courant alternatif dont l'amplitude soit de 0,1 volt. Pour une certaine application que nous avons en vue, nous estimons que cette amplitude est trop faible. Nous désirons l'amplifier.

Pour cela nous ferons appel à la lampe triode.

Nous pouvons, par exemple, imaginer le montage figure 56. Les tensions de faible amplitude sont disponibles aux bornes de l'élément a. On les applique entre grille et cathode de la lampe triode. Ces tensions viennent s'ajouter - ou se retrancher - suivant leur sens, à une tension dite de « polarisation » déterminée par la pile p.

Toute variation de tension (g) amenée par l'élément a se traduira par une variation de l'intensité anodique. Si le coefficient d'amplification est k, tout se passe comme si la tension de a variait dans les limites ka.

Or, nous avons reconnu que k peut atteindre 100.

L'élément b est chargé de recueillir les variations de courant anodique et de les utiliser pour le but cherché.

Amplification en cascade

Après cette première amplification, nous pouvons encore juger que l'amplitude obtenue est trop faible. Dans ce cas, nous aurons la possibilité d'utiliser les tensions recueillies en b, pour les amplifier encore une ou plusieurs fois. On pourrait ainsi supposer qu'il soit possible d'obtenir une amplification infinie. Or, il n'en est rien et nous expliquerons plus loin pourquoi il en est ainsi.

Avant d'aller plus loin dans cette étude et d'entrer dans les détails, il est nécessaire d'étudier le mécanisme d'amplification d'un peu plus près.

La lampe est un relais

Un relais, c'est un mécanisme qui permet de libérer une certaine énergie disponible, à l'aide d'une énergie beaucoup plus faible.

Nous pouvons commencer par une image, sans doute grossière et très approchée, mais qui permet peut-être de comprendre le sens profond des phénomènes. Dans la cartouche d'un fusil, est enclose une énergie chimique considérable. Pour la libérer, et communiquer à la balle une vitesse de 500 mètres à la seconde, il suffit d'un petit déplacement d'une phalange du doigt, appuyant sur la gâchette.

Autre image  : un moteur d'automobile peut développer une puissance considérable. Il peut entraîner à 100 kilomètres à l'heure la voiture et ses passagers... Pour faire agir cette énergie, il suffit d'appuyer légèrement sur la pédale de l'accélérateur. L'image, cette fois, est beaucoup plus exacte. La puissance fournie par le moteur suivra fidèlement les impulsions de l'accélérateur. Si nous cessons d'appuyer le pied, elle deviendra sensiblement nulle. Elle passera successivement à 8, 10, 20 chevaux-vapeur, suivant la pression plus ou moins grande que nous exercerons. Il y a donc un rapport précis entre la force musculaire transmise par le pied du conducteur et l'énergie produite. Pourtant, aucune fraction de nos forces n'est réellement et directement utilisée pour faire avancer la voiture... Toute la puissance nécessaire est produite par la combustion de l'essence. On peut considérer que l'ensemble est un relais, commandé par l'action du pied du conducteur.

Sens du mot « amplification »

Si une image photographique est trop petite, on l'agrandit. On dit encore qu'on « l'amplifie ». Faut-il entendre par là, qu'en tirant sur les quatre coins, on va s'efforcer de lui donner les dimensions voulues ? Evidemment non.

Cela veut dire qu'on va lui substituer une autre image.

Nous nous arrangerons pour que chaque centimètre de la première image corresponde à une longueur de 5 centimètres sur l'autre image. Ainsi ncus aurons obtenu un agrandissement de la première image, mais, en fait, il s'agit d'une autre image.

Il en est de même dans l'amplification par une lampe triode. A un courant d'amplitude trop faible on substitue un autre courant de plus grande amplitude. En réalité, on n'amplifie pas des mouvements électroniques trop faibles ; on les remplace par les mouvements plus intenses d'autres électrons.

Circuit de grille

Ce qui correspond à la détente du fusil ou à la pédale de l'accélérateur, est l'électrode de grille. Mais il faut encore un certain effort pour mouvoir la pédale de l'accélérateur... En est-il de même ici ?

La seule énergie empruntée au circuit a est destinée à produire une tension entre grille et cathode.

Dans les conditions normales, aucun courant n'existe entre cathode et grille. C'est dire que ces deux électrodes, étant parfaitement isolées, peuvent être considérées comme les armatures d'un minuscule condensateur. Ce condensateur est chargé par la source a.

Mais l'énergie nécessaire est si faible qu'on peut parfaitement la négliger. Ainsi, puisque la lampe n'emprunte pas d'énergie au circuit a, elle ne saurait créer aucun amortissement. Nous verrons plus loin que c'est un point d'importance.

Circuit de plaque

Cependant il faut bien admettre que le circuit b reçoit l'énergie, puisqu'il est le siège d'un courant amplifié.

Il est aisé de constater que ce courant est tout entier fourni par la batterie A. C'est là le véritable carburant qui donne l'énergie nécessaire à l'amplification...

Ces considérations nous permettent maintenant d'avoir une idée exacte du fonctionnement de la lampe amplificatrice.

C'est un relais. L'énergie nécessaire à la création du courant amplifié est fournie par la batterie anodique. La mise en jeu de cette énergie est déterminée par la tension de grille.

Et si la grille devenait positive ?

Dans tout ce qui précède, nous avons supposé que la grille présentait toujours une tension négative par rapport à la cathode. A mesure que la différence des tensions devient plus faible, le courant anodique augmente. On peut se demander ce qu'il advient lorsque la grille est à la même tension que la cathode ou même lorsque la tension de grille devient positive...

Dans ce cas, on peut supposer que l'action de la grille sur les électrons devient une attraction qui agit dans le même sens que l'attraction de la plaque. Le courant anodique continuera donc d'augmenter. En réalité, il en est bien ainsi.

Mais un autre phénomène se produit. Il faut songer que la grille est positive ; elle présente un appauvrissement d'électrons. Elle a donc tendance à combler cet appauvrissement. Les électrons que le hasard envoie au voisinage d'une spire de la grille sont donc captés - et n'achèvent point leur voyage.

Ils donnent naissance à un courant de grille.

Tant que le nombre d'électrons captés par la grille reste faible par rapport au nombre total, le phénomène ne change point d'aspect. Mais le courant de grille devient de plus en plus intense à mesure que la tension grille diminue et, par la suite tout pourrait changer si la lampe continuait à travailler dans ces conditions anormales.

N'insistons pas, pour l'instant, sur ces faits pratiquement inusités. Bornons-nous à constater que l'apparition du courant de grille contraint le circuit a à fournir de l'énergie et, dans ce cas, un amortissement peut prendre naissance.

Lorsque la tension de grille devient fortement positive, le courant grille devient de plus en plus intense. On peut observer alors une diminution du courant de plaque.

Le nombre d'électrons émis par la cathode est limité ; lorsque la somme des électrons captés par la grille et la plaque atteint cette limite, un des courants ne peut s'accroître qu'au détriment de l'autre.

Hâtons-nous d'ajouter que ces phénomènes ne peuvent être observés qu'à condition d'utiliser des lampes de construction spéciale. Une lampe usuelle serait mise hors d'usage avant que d'en arriver là, soit que la plaque ou la grille soit fondue, par le dégagement de chaleur, soit encore que la cathode ait perdu son pouvoir émissif.

La «géométrie » de la lampe et ses constantes

Nous avons appris plus haut quel sens il faut donner aux termes familiers  : coefficient d'amplification et résistance intérieure. On peut se demander pourquoi telle lampe aura un coefficient d'amplification de 10 et telle autre de 100.

Le coefficient d'amplification est déterminée par la « géométrie » des électrodes, c'est-à-dire leur position relative.

En plaçant la grille au voisinage même de la cathode et en éloignant la plaque, on obtiendra une lampe à grand coefficient d'amplification. De même, une grille à pas serré donnera un plus grand coefficient d'amplification.

Par contre, les mêmes dispositions auront encore pour effet une augmentation de résistance intérieure.

Aussi, une lampe à grand coefficient d'amplification est toujours une lampe à grande résistance intérieure (on dit encore « impédance »).

Mais la résistance interne dépend encore de l'émission cathodique. Si la cathode émet généreusement des électrons, la résistance interne sera plus faible.

L'émission cathodique dépend tout d'abord de la nature de la cathode ; elle dépend aussi dans une certaine mesure de la puissance électrique que l'on dépense pour la chauffer.

Limite des constantes

On pourrait croire que l'intérêt serait grand de construire une lampe triode à coefficient d'amplification énorme. Or, si cette conception est théoriquement réalisable, elle se heurte, pratiquement à des détails insurmontables.

D'après ce qui précède, il suffit de constituer une lampe dont la grille est très rapprochée de la cathode et de constituer cette grille par un réseau très serré.

Il faut, naturellement, que la cathode ne puisse risquer de venir toucher le filament. Cela limite forcément le rapprochement.

On peut arriver au même résultat en éloignant la plaque. Sans doute — mais il faut que l'influence de la plaque soit assez grande pour contrebalancer celle de la grille (forcément négative), cela nous conduit à utiliser une tension sur la plaque d'une énorme valeur. Ainsi, pour obtenir un coefficient d'amplification de 1.000 avec une lampe triode, il faudrait pouvoir disposer d'une tension anodique d'au moins 1.000 volts.

Cela suffirait déjà à rendre la chose complètement inutilisable, mais autre chose, de plus décisif encore, va entrer en jeu qui clôt le procès sans appel.

Influence de la résistance interne

Que demandons-nous à un amplificateur ? Nous disposons d'une tension jugée trop faible  : 2 volts par exemple, et nous voulons « amplifier » cette tension. Nous voulons qu'elle soit d'au moins 20 volts.

Suffira-t-il d'intercaler quelque part une lampe dont le coefficient d'amplification soit de 10 ? Hélas, non.

Examinons les choses en détail (Fig. 57).

La tension qu'il s'agit d'amplifier est connectée entre les bornes A et B. L'élément p a pour but de rendre normalement la grille négative par rapport à la cathode.

La tension anodique ou tension de plaque est appliquée par l'intermédiaire des bornes H.T. p;g 57

Nous savons que, dans ces conditions, toute variation de tension entre les bornes A et B aura le même effet qu'une variation de tension dix fois plus grande (le coefficient d'amplification étant de 10) de la source HT.

Mais ce qui nous importe, ce n'est pas ce que la lampe peut donner en théorie, c'est uniquement ce que nous devons obtenir en réalité.

Cette variation 10 fois de plus grande est bien présente dans le circuit de plaque, mais il faut l'en extraire.

Or, qu'avons-nous dans ce circuit de plaque ?

Nous avons un « quelque chose » qui, agissant comme une source de courant, nous fournit ces variations décuplées ; mais nous avons encore la résistance interne et un certain élément U avec lequel nous désirons précisément recueillir le résultat de l'opération.

Pour simplifier, nous pouvons placer en U une simple résistance. Supposons qu'elle soit de 20.000 ohms.

Nous pouvons maintenant transcrire le résultat graphiquement et figurer (Fig. 58) le circuit équivalent.

La tension amplifiée par la lampe existe entre les points A et B. Malheureusement, le point A ne correspond à rien de tangible. Il est hors de notre atteinte. Nous devons donc obligatoirement nous contenter de la tension développée aux bornes de U; c'est-à-dire disponible entre les points C et B.

Il est clair que cela ne constitue qu'une fraction de la tension totale.

Cette tension sera d'autant plus voisine de la tension idéale, mais inaccessible A B, que la résistance Ri sera petite par rapport à U.

Nous ne pouvons pas songer à augmenter indéfiniment U. Cette résistance est en série avec la tension anodique. Il y a donc une perte de tension ; perte d'autant plus élevée que Ri sera plus grand.

La situation semblera bonne si nous utilisons une lampe dont la résistance intérieure soit faible. Mais nous savons déjà qu'une telle lampe a un coefficient d'amplification faible...

Ainsi nous voyons s'évanouir à nos yeux le mirage d'énormes possibilités d'amplification.

En réalité, la lampe triode ne permet guère d'obtenir au maximum que des « gains » par étage de l'ordre de 50. Ce n'est déjà pas si mal. Ce chiffre ne peut d'ailleurs être atteint qu'avec certaines lampes, pour certaines applications particulières.

Caractéristiques de la lampe triode

Nous avons déjà pu apprécier plus haut la commodité des représentations graphiques. Ce mode d'expression s'applique particulièrement bien à la lampe triode.

Nous avons reconnu que l'intensité de courant anodique était déterminée par la tension appliquée sur la grille. On peut traduire ce phénomène par un graphique très simple, qui aura l'avantage de nous renseigner immédiatement sur les possibilités et la valeur d'une lampe.

Traçons (Fig. 59) une ligne horizontale sur laquelle nous porterons les tensions de grille et une ligne verticale portant les intensités de courant anodique.

Nous remarquerons, par exemple, qu'une tension grille négative de 1 volt détermine la circulation d'un courant anodique de 2,8 milliampères, la tension anodique étant de 100 volts. Cela nous permet de fixer le point P.

Nous porterons maintenant la grille à une tension négative de 2 volts, le courant anodique sera dans ce cas de 1,3 milliampère et nous aurons ainsi le point Q.

Ainsi, point par point, nous pouvons entièrement déterminer toute la courbe qu'on nomme une courbe caractéristique de la lampe.

Nous remarquons immédiatement qu'une courbe caractéristique se présente toujours à peu près comme celle de la figure 59.

Pour une certaine tension de grille (4 volts dans le cas présent) on observe l'annulation complète du courant anodique.

Puis le courant anodique s'amorce lentement ; les variations de tensions grille produisent des variations de plus en plus grandes de l'intensité anodique. A cet endroit, la caractéristique est coudée (zone A, Fig. 59).

Enfin, à partir du point B les variations étant devenues régulières, la caractéristique devient droite. Cela veut dire qu'une même variation de tension grille produit toujours une même variation de courant anodique.

Cette circonstance est précieuse. C'est elle qui permet d'utiliser la lampe pour l'amplification des courants téléphoniques. De la sorte la forme du courant amplifié est semblable à celle du courant appliqué sur la grille de la lampe.

Les caractéristiques

En fait, il n'y a point une caractéristique de lampe ; il y en a autant qu'on veut. En effet, celle que nous avons relevée figure 59 est valable pour la tension de plaque de 100 volts. On obtiendrait naturellement une autre courbe en utilisant une tension plaque de 150 volts. On ne peut donc pas dire qu'il y a une courbe caractéristique, mais plus exactement une « famille de caractéristiques ».

On remarquera immédiatement que toutes ces courbes sont pratiquement semblables. Leurs parties droites sont parallèles.

L'augmentation de tension de plaque correspond à un simple déplacement de la caractéristique vers la gauche.

Ce résultat peut s'interpréter très facilement, à la lumière de ce que nous avons appris plus haut.

En effet, augmenter la tension de plaque c'est produire une attraction plus violente des électrons. Il faudra, en particulier, appliquer sur la grille une tension négative plus grande pour contrebalancer exactement l'action de la plaque et annuler le courant anodique. Le point de départ de la caractéristique commencera donc pour une tension négative de grille plus élevée et, par conséquent, la courbe débutera plus loin vers la gauche.

Ce raisonnement pourra être répété pour chacun des points de la courbe.

Détermination des constantes à l'aide des caractéristiques

Non seulement la représentation graphique permet d'apprécier d'un coup d'œil les propriétés d'une lampe, mais encore elle donne la possibilité de déterminer avec précision les différentes constantes définies plus haut.

Quand la tension anodique passe de 100 à 150 volts, le courant anodique passe du point P au point P', c'est-à-dire de 2,8 milliampères à 4,2 milliampères.

Ainsi une variation de tension anodique de 50 volts produit une variation d'intensité de courant de 1,4 milliampère ou 0,0014 ampères.

En appliquant tout simplement la loi d'ohm à ce résultat on obtient la résistance du circuit correspondant : 50/0,0014=35.700 ohms environ.

Pour rendre l'explication plus intelligible, nous avons supposé une variation anodique de 50 volts, qui est relativement considérable. Nous devons cependant indiquer que, pour certaines lampes et, surtout, pour certains points de la caractéristique, la résistance intérieure peut dépendre de la tension anodique, tout au moins dans une certaine mesure. Dans ce cas on ne pourrait être assuré que la résistance interne au point P et la résistance au point P' sont égales.

Ainsi, serait-il plus exact de faire le raisonnement et la mesure en faisant varier très peu la tension anodique.

On utiliserait, par exemple, la caractéristique 150 volts et celle de 155 volts.

Nous venons de reconnaître qu'une variation de tension anodique de 50 volts amenait une variation de courant anodique de 1,4 milliampères.

On peut encore obtenir autrement cette variation  : on agira sur la tension grille.

Sur la caractéristique correspondant à 100 volts, le point correspondant à un courant de 4,2 milliampères est P'. Il correspond à une tension grille de 0 volt. La variation est donc de 1 volt.

Ainsi, une variation de 1 volt, appliquée à la grille, produit le même effet qu'une variation de 50 volts appliqués à la plaque.

D'après la définition même du coefficient d'amplification, c'est que ce dernier est égal à 50.

On utilise aussi très fréquemment une autre constante. C'est l'inclinaison ou pente de la caractéristique.

On nomme ainsi la variation de courant anodique produite par une variation de tension grille de 1 volt. Elle s'exprime en milliampères par volts.

Dans le cas examiné, la pente est évidemment de 1,4 milliampères par volt.

On peut montrer que la pente est égale au rapport entre le coefficient d'amplification et la résistance intérieure. Ce qu'on peut exprimer par la formule simple  :

s = k/Ri

Pour l'exactitude de cette formule, il faut exprimer la pente en ampères par volts.

Ainsi, connaissant deux coefficients, on peut très facilement trouver le troisième.


CHAPITRE SEPTIEME

LES APPLICATIONS DE LA LAMPE TRIODE

Le tube triode se prête à des quantités d'applications. Nous ne pouvons toutes les passer en revue et il ne peut être question que d'examiner les principales. La lampe triode peut être utilisée comme lampe amplificatrice à haute ou basse fréquence, comme génératrice d'oscillations entretenues, comme lampe détectrice. Elle peut donc être toute la T.S.F., aussi bien du côté du poste récepteur que du côté de l'émetteur.

Cependant, elle n'est pas sans défaut. Nous examinerons ce qu'on peut lui reprocher et nous verrons ainsi pourquoi on a été amené à concevoir des tubes plus compliqués, remplissant mieux certaines fonctions délicates.

La lampe amplificatrice

Nous savons déjà à quoi nous en tenir à ce sujet, tout au moins quant au principe. On applique les tensions à amplifier entre la grille et la cathode de la lampe et on recueille le résultat de l'opération dans le circuit de plaque.

La tension amplifiée ainsi recueillie peut être utilisée pour attaquer la grille d'une autre lampe triode.

Mais quelles tensions pourra-t-on soumettre à l'amplification ? Sera-t-il question des courants à haute fréquence, captés par l'antenne, ou des courants a fréquence téléphonique tels que les fournit le détecteur ?

Les deux méthodes sont utilisées simultanément dans les récepteurs modernes. Elles correspondent à des résultats différents que nous allons exposer dans les pages suivantes.

AMPLIFICATION A HAUTE FREQUENCE

Frappé par le rayonnement électromagnétique, le collecteur d'onde est parcouru par un courant complexe dont la forme est semblable au courant à haute fréquence qui parcourait l'antenne de l'émetteur.

Mais, pour peu que la station émettrice soit très éloignée, ou qu'elle soit faible, ces courants ont une très petite amplitude. On ne peut, alors, songer à les soumettre directement au détecteur. Celui-ci, quelle que soit sa nature, possède toujours un seuil au-dessous duquel le fonctionnement ne peut être assuré dans de bonnes conditions.

La plupart des détecteurs - mêmes les détecteurs dits « linéaires » sont, pour les amplitudes très faibles, des détecteurs qui « obéissent à la loi du carré » (ou, pour parler anglais, sont « square law »). Cela veut dire, par exemple, que pour une amplitude égale à 1, le détecteur donnera une tension téléphonique de 1, maïs, pour une amplitude de 4, il donnera une tension téléphonique de 4X4 ou 16. On voit donc immédiatement l'intérêt de ne pas soumettre au détecteur les trop faibles tensions.

L'amplificateur à haute fréquence permettra de porter les amplitudes à la valeur jugée convenable.

En même temps, nous verrons que les amplificateurs à haute fréquence sont sélectifs. Ils amplifient une bande étroite de longueur d'onde ou de fréquence.

Ils permettent donc d'effectuer la « sélection », c'est-à-dire de choisir les oscillations correspondant à la station que l'on veut entendre et de les séparer des oscillations indésirables produites par d'autres stations.

Liaison par circuit oscillant

On peut montrer qu'un circuit oscillant (fig. 60) se comporte comme une résistance considérable pour des oscillations correspondant à la résonance.

C'est dire que si ce circuit est accordé sur une longueur d'onde de 1.000 mètres, il se comportera comme un obstacle sérieux. Par contre, l'impédance pourra être négligeable pour des oscillations dont la longueur d'onde correspond à 900 ou à 1.100 mètres.

Or, nous avons remarqué que, pour obtenir le maximum d'amplification, il était nécessaire que l'élément chargé de recueillir les tensions amplifiées ait une impédance aussi grande que possible.

Nous pourrons donc disposer le circuit comme indiqué Fig. 61.

Les tensions à amplifier seront appliquées entre les points D et E; c'est-à-dire entre la grille et la cathode. Dans le circuit de plaque on trouvera un circuit oscillant, accordé sur la fréquence qu'on désire

recevoir et la source de tension anodique destinée à porter la plaque à une tension positive convenable.

Les variations de tension entre D et E provoqueront des variations de courant anodique qui seront finalement traduites par des variations de tension aux bornes du circuit oscillant L C.

Critique de ce montage

L'amplification procurée par le montage précédent est sélective. Il faut entendre par là que la fréquence correspondant à l'accord du circuit oscillant est favorisée par rapport aux autres. C'est un précieux résultat, ainsi que nous l'avons exposé plus haut.

Mais cette sélectivité paraît immédiatement faible. Quand on manœuvre le condensateur variable C on observe bien un maximum d'intensité, mais celui-ci demeure assez flou.

On peut faire cette observation, même si le circuit oscillant est peu amorti ; c'est-à-dire constitué avec des éléments d'excellente qualité. Il faut admettre que l'amortissement constaté n'est pas dû au circuit lui-même mais, sans doute, à la lampe.

Le montage équivalent nous permet de comprendre exactement comment la chose se produit. En dérivation sur le circuit oscillant (Fig. 62) nous trouvons la résistance intérieure Ri et l'élément L, qui n'a pas de résistance et qui agit comme une force électromotrice pure. En somme, le circuit oscillant est shunté par une résistance égale à la résistance interne de la lampe.

Plus cette résistance est faible et plus l'amortissement est grand. Si nous voulons obtenir une bonne sélectivité, il sera nécessaire d'utiliser une lampe à grande résistance intérieure.

II faut remarquer qu'aujourd'hui on considère la sélectivité d'un récepteur comme une qualité fort importante. Or, si l'on utilise des lampes à grande résistance interne, dans le but d'obtenir cette indispensable sélectivité, la « pente » de la lampe diminue très rapidement ; l'amplification qu'on peut obtenir par étage diminue très rapidement aussi.

Il faut donc modifier le montage de la Fig. 61 ou trouver d'autres tubes mieux adaptés à la fonction qu'on leur demande.

Montage à autotransformateur

C'est une modification très simple du circuit de la Fig. 61. Une simple fraction du circuit oscillant est insérée dans le circuit de plaque de la lampe (fig. 63).

De la sorte l'amortissement ne peut se faire sentir que sur une partie du circuit et la sélectivité est notoirement améliorée.

Par contre, on perd généralement un peu de sensibilité. L'impédance d'utilisation est naturellement moins grande ; en conséquence, la fraction d'énergie recueillie dans le circuit de plaque est elle-même moins grande.

L'avantage du dispositif est de permettre le réglage de la sélectivité ou de la sensibilité. On peut augmenter à volonté l'une au détriment de l'autre.

Ce montage est dit à « autotransformateur » parce qu'on peut considérer que la portion K L de la bobine est le circuit primaire, la portion M L étant le secondaire d'un transformateur.

Montage à transformateur

Dans le montage précédent, le primaire et le secondaire du transformateur ont des spires communes. On peut aussi (Fig. 64) séparer complètement deux circuits et réaliser un couplage à transformateur.

Montages apériodiques

Nous avons supposé jusqu'ici que nous voulions réaliser une amplification sélective. Mais il est des cas où ce résultat n'est pas désirable. On peut alors remplacer le circuit oscillant par une bobine d'arrêt dont la résonance n'est pas parfaitement définie. On obtient ainsi une amplification qui peut s'étendre sur une bande de fréquence assez large.

Si l'on veut réaliser une amplification parfaitement apériodique, on aura recours à un couplage par résistance.

AMPLIFICATION A BASSE FREQUENCE

La tension téléphonique disponible à la sortie du détecteur est trop faible pour qu'il soit possible de l'utiliser directement dans un haut-parleur.

Elle ne dépasse généralement pas quelques volts. Pour cela encore, il faut avoir recours à l'amplification. Le problème se pose cependant sous une autre forme que dans le cas de l'amplification à haute fréquence.

Il s'agissait alors d'amplifier autant que possible une mince bande de fréquence correspondant à la longueur d'onde de la station écoutée.

Le courant téléphonique est un courant très complexe qui comprend des fréquences s'échelonnant entre 30 et 10.000 périodes par seconde.

Il faut donc que l'amplificateur puisse fonctionner entre des limites aussi considérables. Il doit amplifier la fréquence 100 exactement comme il amplifie la fréquence 5.000.

On comprend immédiatement qu'il ne peut plus être question d'utiliser les phénomènes de résonance.

Tout à l'heure nous cherchions à provoquer leurs effets avec le maximum d'intensité ; maintenait nous les éviterons dans la mesure du possible.

Amplificateur à résistance

Le schéma le plus simple est celui qui utilise le couplage par résistance (Fig. 65). Le courant à amplifier est, comme habituellement, appliqué entre cathode et grille. La tension amplifiée, disponible dans le circuit de plaque, est recueillie par la résistance RM.

L'inconvénient de ce montage - déjà signalé plus haut - c'est que le courant anodique traversant RM, produit une chute de tension qui vient naturellement diminuer la tension de plaque.

Un tel amplificateur convient naturellement pour les fréquences les plus basses comme pour les plus élevées. L'obstacle opposé au courant par la résistance RM demeure le même quelle que soit la fréquence.

Le système amplifie donc également les fréquences les plus basses comme les plus élevées. Il peut même convenir pour les hautes fréquences. Cependant l'efficacité pour les fréquences élevées a tendance à diminuer. Nous aurons l'occasion d'examiner pourquoi plus loin.

Amplificateur à inductance (Fig. 66).

Remplaçons la résistance par une « inductance » ou une bobine de self induction d'une valeur élevée. On sait qu'une inductance oppose au passage du courant alternatif un obstacle d'autant plus grand que la fréquence est plus élevée.

A partir d'une certaine fréquence l'impédance de la bobine (ou équivalent, en résistance, de l'obstacle opposé par la bobine) deviendra prépondérant par rapport a la résistance intérieure ou impédance du tube amplificateur. Toute l'énergie amplifiée par la lampe sera pratiquement recueillie aux bornes de la bobine.

La résistance ohmique pourra être faible. Ainsi on évitera une chute de tension du courant anodique.

Si l'on veut une amplification régulière de toutes les fréquences, jusqu'à 50 périodes, il est nécessaire d'utiliser une inductance très importante. On ne peut guère atteindre ce résultat qu'en bobinant l'élément sur un circuit magnétique à fer. On peut aussi constituer des bobinages dont l'inductance atteint 30 à 50 henrys ; valeur nécessaire pour que la reproduction des fréquences basses puisse être assurée. N'oublions pas, en effet, qu'il faut que l'obstacle opposé au passage des fréquences basses soit grand, par rapport à la résistance intérieure de la lampe.

Mais le problème n'est pas aussi simple qu'on pourrait le croire. On arrive bien à constituer une inductance considérable. Mais la capacité répartie du bobinage devient alors importante. Cela constitue un chemin de fuite par lequel les fréquences élevées peuvent s'évader... L'amplificateur cesse d'être efficace pour les fréquences élevées...

Amplificateur à transformateur (Fig. 67).

Les montages précédents ont l'inconvénient de limiter le gain des tensions au coefficient d'amplification de la lampe. Ainsi, si le coefficient d'amplification est de 25 et qu'on dispose de 0,1 volt à l'entrée, on pourra, tout au plus, recueillir 2,5 volts à la sortie.

L'utilisation d'un transformateur élévateur permet d'obtenir un gain plus important.

L'inductance de la Fig. 66 est remplacée par le primaire d'un transformateur. Si le rapport d'élévation est de 5, c'est-à-dire si le circuit secondaire comporte cinq fois plus de spires que le circuit primaire, dans le cas déjà cité, on pourra déjà trouver une tension de 2,5 X 5 = 12,5 volts. Le gain total atteindra, dans ce cas : 125.

Cela peut paraître très séduisant en principe. En fait la grosse difficulté est de réaliser le transformateur. Il faut toujours satisfaire à cette condition que toutes les fréquences soient également transmises. Nous ne voulons pas entrer dans le détail de toutes les difficultés qu'il faut vaincre pour y arriver. On pourrait écrire un volume entier sur cette question. Nous nous bornerons à signaler la chose à nos lecteurs et à indiquer que la réalisation du transformateur parfait est possible, mais que l'engin est très coûteux.

Tendances actuelles [Note : "actuelle" dans les années 1930...]

On a renoncé, pour la fabrication normale, à l'utilisation des couplages par inductances, ou transformateur. On utilise généralement le couplage par résistance, mais la lampe amplificatrice n'est plus une triode.

LA LAMPE GÉNÉRATRICE OU OSCILLATRICE

Dans les paragraphes précédents, nous avons sommairement étudié la lampe triode dans une de ses fonctions : l'amplification.

Nous allons exposer maintenant comment la lampe peut produire des oscillations, c'est-à-dire des courants de haute fréquence.

Réalisons le montage de la Fig. 68. Les deux inductances L1 et L2, placées dans les circuits de plaque et de grille, sont couplées entre elles.

Etablissons brusquement le courant. Au début de l'expérience, il n'y a p^s de courant anodique. Mais ce courant tend à s'établir dans la bobine L2. Il y a donc une variation de courant dans L2. Nous avons indiqué que L2 est couplée avec L1. En conséquence, la variation de courant dans L 2 produira une tension induite aux bornes de L1, c'est-à-dire, en somme, entre grille et cathode.

La tension de grille est donc croissante. Or, cette tension régit l'intensité anodique, qui varie dans le même sens. Cet accroissement a cependant une limite : dès que la grille dépasse une certaine tension positive, nous savons que l'intensité plaque tend à diminuer.

A ce moment, la tension induite par L2 dans L1 s'inverse. Il y a donc diminution de tension grille et - conséquence inéluctable - diminution d'intensité anodique.

Pendant cette phase du fonctionnement, la tension induite aux bornes de L1, c'est-à-dire, en somme, était induite au début de l'expérience.

Mais celte diminution de tension grille ne saurait être éternelle. Un moment arrive où le courant plaque est annulé. Il ne peut donc plus y avoir d'induction de L2 sur L1. Par conséquent, la grille - qui était toujours négative - tend à reprendre la tension de la cathode.

Il y a donc, encore une fois, inversion de tension aux bornes de L1, et le phénomène se poursuit ainsi indéfiniment.

On saisit immédiatement la grande analogie qui existe entre ce phénomène et le mécanisme de l'échappement d'une horloge. A chaque oscillation, le balancier reçoit une impulsion mécanique qui accroît l'énergie qu'il possède déjà. Il peut ainsi poursuivre son mouvement oscillant en dépit des pertes par frottements. Automatiquement, le rythme de l'échappement se règle sur celui de l'oscillation. L'énergie transmise au balancier est naturellement empruntée au ressort ou au poids moteur. Il est indispensable d'amorcer le phénomène. Le balancier resterait éternellement à sa position de repos si rien ne venait lui donner la petite impulsion pour le départ...

Tout cela est exactement vrai pour le schéma de la fig. 68. Le rythme des oscillations se fixe automatiquement sur la fréquence qui correspond au circuit oscillant constitué par L1, Cv. L'énergie électrique nécessaire à la production des oscillations est empruntée à la source de tension anodique. Il faut aussi une impulsion pour provoquer la naissance des oscillations. Remarquons que l'établissement du courant suffit presque toujours à déclancher le phénomène. Et puis, le courant anodique n'est pas absolument constant. Il présente de petites fluctuations qui servent d'impulsions initiales.

Conditions d'entretien.

Mais le balancier de l'horloge finit par s'arrêter si on néglige de remonter le ressort moteur. Qu'un supplément de frottement vienne à se produire et l'on voit l'amplitude des oscillations diminuer et l'arrêt complet peut se produire. Pourtant, le mécanisme de « l'échappement » fonctionne toujours...

Tout s'explique cependant d'une manière très simple : L'énergie cédée par l'échappement au cours d'une oscillation est plus faible que l'énergie absorbée par les pertes au cours de la même oscillation. Dans ces conditions, l'amplitude décroît et le mouvement cesse.

Il faut encore nécessairement que l'appoint d'énergie soit fait dans le sens convenable. Si le pendule va vers la gauche, l'impulsion, au moment où elle se produit, doit être dirigée vers la gauche.

Tout cela peut encore se traduire électriquement dans le cas de la Fig. 68. Pour que les oscillations puissent être entretenues, il est nécessaire que le sens du couplage L1, L2 soit correct. On exprime cela d'une façon plus « technique » en disant que le coefficient d'induction mutuelle des deux bobines doit être négatif. S'il est positif ou, si l'on préfère, la position ou le sens des bobinages est inversé, aucun entretien d'oscillations ne peut se produire.

Enfin, il faut que le couplage soit assez fort pour que l'énergie électrique transmise par induction soit au moins suffisante pour compenser les pertes électriques au cours d'une oscillation.

Stabilité des oscillations.

Lorsque le montage est correctement réalisé, les oscillations produites sont parfaitement stables. Cela ne doit pas paraître étonnant. On s'explique facilement la chose de la façon suivante :

Au début du fonctionnement, les oscillations s'amorcent. Leur amplitude, à peine perceptible tout d'abord, s'accroît très rapidement. A mesure que l'amplitude croît, l'énergie cédée au cours d'une oscillation croît également, ce qui est une condition excellente de stabilité.

Mais l'amplitude atteint forcément une limite en vertu du mécanisme d'entretien et des propriétés de la lampe à trois électrodes. D'ailleurs, il faut noter que les pertes deviennent aussi de plus en plus importantes à mesure que s'accroît l'amplitude.

D'une part, l'énergie transmise diminue, d'autre part, l'énergie absorbée augmente. Les deux phénomènes allant en sens opposé, il est obligatoire qu'un état d'équilibre se produise et cet état d'équilibre est stable,

Nécessité du couplage grille-plaque.

Pour qu'il y ait entretien d'oscillations, il est nécessaire qu'un couplage convenable soit produit entre les circuits de grille et de plaque. Dans le schéma type de la Fig. 68, ce couplage se produit par l'induction entre les bobines Ll et L2. Il faut, en somme, qu'une fraction de la tension disponible dans le circuit L2 soit reportée dans le circuit L1.

On peut imaginer d'autres procédés que le couplage par induction. On peut, par exemple, utiliser un couplage statique à l'aide d'un condensateur.

Un montage de ce type est indiqué Fig. 69.

On peut aussi utiliser un couplage par résistance ou inductance, un couplage direct, etc...

Tous ces montages offrent d'ailleurs des possibilités considérables de variantes. On peut imaginer de très nombreuses modifications. Nos lecteurs concevront sans peine qu'il nous soit impossible d'en donner le schéma, même sans l'accompagner d'aucun commentaire.

Domaine de la lampe triode.

La lampe triode donne donc un moyen extrêmement simple d'obtenir des oscillations entretenues de haute fréquence. Les montages sont toujours simples : la lampe, les circuits d'alimentation, quelques bobinages. La souplesse de fonctionnement est idéale. Il suffit de modifier les constantes du circuit oscillant pour modifier la fréquence des oscillations.

Pour apprécier la lampe génératrice à sa juste valeur, il faut songer, qu'avant elle, on ne possédait pas de moyens simples d'obtenir des oscillations entretenues stables et régulières. Pour les fréquences relativement basses (de l'ordre de 30.000 périodes par seconde), on savait construire des alternateurs à haute fréquence. Ces machines étaient, d'ailleurs, fort coûteuses et on devait les munir de dispositifs compliqués pour assurer la stabilité des oscillations.

La lampe oscillatrice permet l'entretien d'oscillations dans une gamme extrêmement large qui s'étend pratiquement des oscillations à très faible fréquence (de une période par seconde, par exemple) aux ondes micro, correspondant à une longueur d'onde de l'ordre du mètre, et à une fréquence de 300.000.000 de périodes par seconde.

Puissance et rendement d'une lampe.

Puissance dissipée.

Soit une lampe triode qui ne produit pas d'oscillation. Un courant anodique de 50 milliampères traverse le circuit de plaque, sous l'influence d'une tension anodique de 500 volts.

Nous savons qu'une intensité de courant de 0,050 A., sous 500 volts, correspond à une puissance de 0,050 X 500 = 25 watts. Que devient cette puissance ? Dans le cas présent, elle est tout entière transformée en chaleur et - nous l'avons déjà signalé - apparaît sur l'anode de la lampe.

On ne peut, naturellement, augmenter indéfiniment cette puissance. L'échauffement de la lampe deviendrait de plus en plus grand. Nous verrions l'anode devenir rouge sombre, puis rouge vif, jusqu'à la fusion ou même la volatilisation,

Dès que réchauffement de l'anode devient excessif, le fonctionnement est troublé. Il se produit une « émission secondaire ». Il faut entendre par là que des électrons sont expulsés par l'anode et donnent lieu à un courant inverse.

Enfin, cet échauffement anormal peut amener le dégagement des gaz occlus dans les électrodes.

Des phénomènes complexes d'ionisation peuvent se produire. La lampe peut être mise hors d'usage.

De tout cela, il faut retenir qu'une lampe donnée peut admettre une certaine puissance dissipée maximum et qu'il est dangereux de vouloir dépasser celle-ci.

Cette puissance maximum dépend de la grandeur de la plaque et, dans une certaine mesure, de sa nature. L'électrode étant placée dans un vide aussi parfait que possible, la chaleur ne peut être transmise à l'extérieur que par rayonnement. Ainsi, une anode à surface noircie et mate permettra une meilleure dissipation qu'une anode brillante.

Rendement.

Supposons maintenant que nous produisions l'entretien des oscillations et que, par un réglage convenable, le courant anodique devienne le même que tout à l'heure. Nous pouvons obtenir cela sans difficulté.

Les oscillations produites dans le circuit représentent naturellement une certaine puissance. Nous avons d'ailleurs plusieurs moyens de mesurer cette dernière. La puissance électrique empruntée à la source anodique n'ayant pas changé, il faut nécessairement que la puissance oscillante soit une fraction de la puissance qui était dissipée tout à l'heure.

La puissance dissipée, étant dégradée en chaleur, n'a aucun intérêt pour nous. C'est de l'énergie perdue. Notre but, c'est d'obtenir de la puissance oscillante.

On appellera rendement de la lampe, le rapport entre la puissance oscillante et la puissance totale empruntée à la source.

Le maximum de puissance fourni par la lampe sera obtenu lorsque la puissance dissipée sera celle que la lampe peut supporter au maximum. Or, on peut démontrer que, dans ces conditions, le rendement est, au maximum, de 0,5 ou, si l'on préfère, de 50 %. Cela veut dire qu'à ce moment la puissance dissipée et la puissance oscillante sont égales.

Si l'on veut bien ne pas tirer d'une lampe le maximum de ce qu'elle peut donner, on peut notablement améliorer le rendement. Cependant, on peut considérer le rendement de 75% comme une limite.

Ces chiffres peuvent paraître faibles. En pratique, les rendements sont encore plus dérisoires. Il faut, en effet, tenir compte de la puissance électrique nécessaire pour obtenir réchauffement de la cathode ou du filament. Mais il faut bien dire qu'en T.S.F. le rendement électrique n'atteint jamais des valeurs considérables.

Usages de la lampe génératrice.

L'emploi le plus important est naturellement la production des oscillations à haute fréquence destinée à l'émission.

On utilise encore la lampe oscillatrice dans certains montages de récepteurs à changement de fréquence. Nous aurons l'occasion de revenir là-dessus.

On utilise aussi la lampe triode pour constituer de petits émetteurs en miniature destinés à la mesure des longueurs d'ondes. Ce sont des générateurs « hétérodynes » ou « hétérodynes de mesure ».

LA LAMPE TRIODE DETECTRICE

Il y aurait, sur ce sujet, une très curieuse étude à faire.

Nous avons reconnu plus haut qu'on utilisait, pour la détection, la lampe diode. Il n'en fut pas toujours ainsi. H y a quelques années, on utilisait uniquement la lampe triode. Avec les tubes dont on disposait alors, c'était beaucoup plus simple... Mais en remontant beaucoup plus loin, avant la guerre [de 1914-1918], on utilisait en détection la valve de Fleming qui n'était pas autre chose qu'un tube diode... A cette lointaine époque, on ignorait la lampe triode.

Mais pourquoi être revenu aujourd'hui à ce procédé primitif?

C'est qu'on cherche avant tout la qualité de reproduction. La détection par diode permet une détection presque parfaite. Par contre, elle nécessite l'emploi d'une forte amplification préliminaire. Cette condition s'obtient sans peine avec les montages modernes. Il n'en était pas de même il y a quelques années...

Certains montages détecteurs utilisant la lampe triode permettent d'obtenir une grande sensibilité. C'est cela qui explique la faveur dont ils jouissaient jadis.

LA DETECTION PAR LA GRILLE

Réalisons le schéma de la fig. 70. Si nous considérons tout d'abord l'ensemble constitué par Rd, Cd, le circuit oscillant, la cathode et la grille de la lampe, nous remarquons qu'il s'agit d'une simple détection par diode. La grille de la lampe est en somme la seconde électrode du diode.

Aux bornes de la résistance Rd, nous pouvons donc recueillir une tension téléphonique, qui est le résultat de la détection.

Mais cette tension est précisément appliquée entre cathode et grille de la lampe triode. C'est dire que, dans le circuit de plaque, nous trouverons cette même tension téléphonique considérablement amplifiée par la lampe.

Défaut de la détection par la grille.

En réalité, la tension téléphonique utile n'est pas la seule à être appliquée entre cathode et grille. Nous trouvons également la tension à haute fréquence développée aux bornes des circuits oscillants. Nous savons aussi que la détection produit le passage d'un courant continu à travers la résistance Rd.

Regardons les choses d'un peu plus près et, pour cela, ayons recours à la courbe caractéristique de la lampe.

Nous avons indiqué celle-ci sur la Fig. 71.

En l'absence d'oscillations, un courant très faible traverse le diode. Certains électrons sont en effet captés. Le courant ainsi créé, traversant Rd, produit une chute de tension, si bien qu'en réalité la tension de la grille au repos est légèrement inférieure à la tension de la cathode.

Cette tension correspond, par exemple, au point P. Supposons maintenant que des oscillations d'une certaine amplitude parcourent le circuit oscillant.

Un des « faits » de la détection est la production d'un courant continu dans la résistance Rd. Il y aura donc, en vertu de la loi d'Ohm, une différence de potentiel aux bornes de Rd. Cette tension sera dans un sens tel que a soit négatif par rapport à b. En effet, dans les conditions habituelles, les électrons ne peuvent circuler que de la cathode vers la grille.

La conséquence de tout cela, c'est qu'à l'arrivée des oscillations dans le circuit oscillant correspondant une augmentation de la tension négative de la grille par rapport au filament.

Le « point de fonctionnement » n'est donc plus P. Ce sera P1, P2, P3, suivant que l'amplitude des oscillations sera plus ou moins grande.

Si les oscillations sont modulées, il y aura, de plus, des variations de courant téléphonique de part et d'autre du point P. Or, on peut comprendre que l'amplification sera plus ou moins grande suivant la pente de la caractéristique au point de fonctionnement. En effet, la pente définit précisément la variation de courant anodique donnée par une variation fixe de tension grille.

Cette pente est visiblement plus grande au point P1 qu'au point P2 et elle est encore plus faible au point P3.

Une émission puissante, faisant reculer le point de fonctionnement jusqu'en P3, donnera donc lieu à une amplification relativement plus faible qu'une émission faible.

De la sorte, la détection par « la grille » favorise les émissions faibles. On dit, pour exprimer cette constatation, qu'elle permet de réaliser la « sensibilité ». Par contre, on ne peut soumettre au détecteur des oscillations de grande amplitude. La détection proprement dite, assurée par la fonction « diode », s'opère normalement, mais la fonction amplificatrice se trouve paralysée par l'excès de tension négative appliquée sur la grille. Cette tension peut être telle que le courant anodique soit complètement supprimé...

Sans aller à cet extrême, il est aisé d'observer que la détection des signaux forts s'opère mal. Supposons que l'amplitude soit telle que le point de fonctionnement soit amené en P2. Les alternances téléphoniques positives conduiront alors le point de fonctionnement du côté x et les alternances négatives du côté y.

En vertu de ce qui a été vu plus haut, il est certain que l'amplification des premières sera plus importante. Il y aura donc déformation de courant reçu... ce qu'il faut évidemment éviter dans la mesure du possible.

Détectrice à réaction.

Imaginons le montage Fig. 72. C'est, en somme, un montage détecteur par condensateur shunté. Cependant, dans le circuit anodique de la lampe on a inséré une inductance L2 qu'on peut coupler avec l'inductance habituelle de réception L1.

Dans ce même circuit anodique est inséré un téléphone T, shunté par un petit condensateur C.

Admettons que, pour l'instant, le couplage L1-L2 soit nul. Nous avons donc réalisé un montage détecteur habituel et le récepteur T nous donne l'audition des signaux présents dans L1.

Mais, en couplant L2 avec L1, dans un certain sens, nous observerons immédiatement un important renforcement des signaux. Cette augmentation s'accroît comme s'accroît le couplage.

Nous avons l'impression d'augmenter fortement l'amplification de la lampe.

Cependant, cette augmentation admet une limite. Pour un certain couplage, des oscillations entretenues naissent dans le circuit L1 et viennent troubler le phénomène.

Nous ne serons pas étonnés de ce dernier résultat. Le schéma représenté est, en somme, un schéma de lampe génératrice. Lorsque nous avons dépassé le couplage critique, des oscillations stables sont entretenues par la lampe.

Le renforcement obtenu par le couplage peut être considérable. Des signaux, absolument inaudibles sans lui, peuvent donner une très puissante audition par un ajustement convenable du couplage.

Ce fait s'explique facilement. L'amplitude des signaux dans la bobine L1 est déterminée par la résistance en haute fréquence de cette bobine et du condensateur. Si nous parvenons à diminuer cette résistance, nous augmenterons l'intensité de réception.

Or, en couplant la bobine L2, nous introduisons dans le circuit un élément nouveau qu'on nomme résistance négative. Comme son nom l'indique, cette résistance vient se retrancher de la résistance normale ou résistance positive. La résistance effective du circuit tend donc vers zéro. C'est précisément au moment où la résistance s'annule que les oscillations entretenues apparaissent.

Nous aurons l'occasion de revoir plus loin cette notion de résistance négative.

La lampe détectrice à réaction constitue une méthode de réception très sensible, encore très employée, en particulier pour la réception des ondes courtes. Elle se prête à de nombreuses variantes.

La détection par la plaque.

L'expression « Détection par la plaque est un abrégé qui sous-entend : détection par la courbure de la caractéristique de plaque.

Le montage utilisé est donné par la Fig. 73.

Le circuit oscillant parcouru par les oscillations qu'il s'agit de détecter est intercalé dans le circuit de grille.

Une source de polarisation G permet de régler la tension de grille, en l'absence d'oscillations dans le circuit oscillant.

Appliquons, à l'aide de G, une polarisation assez importante pour que le point de fonctionnement corresponde sensiblement a l'annulation du courant anodique.

Si nous traçons la caractéristique (Fig. 74), ce point est précisément le point A. Supposons maintenant que des oscillations soient développées aux bornes du circuit oscillant. Elles vont faire varier la tension de grille de part et d'autre du point A,

Les oscillations dans le sens négatif ne produisent à peu près rien, puisque le courant anodique est presque annulé. Au contraire, les oscillations positives provoquent une augmentation de courant anodique.

II y aura, en somme, une amplification dissymétrique des oscillations et, par conséquent, détection. En effet, tout se passera comme si on avait supprimé les oscillations négatives pour n'amplifier que les oscillations positives. C'est un effet analogue au diode, mais combiné, en quelque sorte, avec une amplification à haute fréquence.

LA LAMPE A GRILLE ECRAN

Amplification à haute fréquence par triode.

Dans les chapitres précédents, nous avons étudié sommairement le principe de l'amplification à haute fréquence, en utilisant la lampe triode.

Reprenons le schéma le plus simple (Fig. 75).

Les oscillations qu'il s'agit d'amplifier sont développées dans le circuit I. On trouve les oscillations amplifiées dans le circuit II.

Si l'impédance à la résonance du circuit II est grande par rapport à la résistance interne de la lampe, on peut admettre que le « gain » est égal au coefficient d'amplification de la lampe.

Une lampe triode, de caractéristiques usuelles, aura par exemple 9.000 ohms de résistance intérieure et son coefficient d'amplification sera de 25.

Mais, si l'on essaie de réaliser le schéma Fig. 75, on se heurte immédiatement à des inconvénients assez graves.

Oscillations spontanées.

On constate, tout d'abord, que le montage n'est pas stable. Lorsque le circuit II est accordé exactement sur la fréquence du circuit I, ce qui est précisément la condition d'amplification maximum, on observe que le système devient générateur d'oscillations. Les deux circuits oscillants sont parcourus par des oscillations entretenues. Naturellement, l'effet amplificateur ne peut se produire dans ces conditions.

Capacité grille-plaque.

Dans le chapitre de la lampe génératrice, nous avons reconnu que des oscillations ne pouvaient naître que lorsqu'il existait un couplage entre les circuits de grille et de plaque. En d'autres termes, il faut qu'une variation de courant du côté plaque produise une variation de tension du côté grille.

Or, la grille et la plaque de la lampe forment deux électrodes parallèles. Entre elles, il existe donc une certaine capacité. Tout se passe exactement comme si les points a et à étaient reliés par un petit condensateur. Le circuit équivalent est donné Fig. 76. On conçoit sans peine que les deux circuits oscillants sont couplés par le condensateur C.

Réduction de l'amplification.

Pour obtenir l'effet amplificateur, il faut naturellement éviter les oscillations. On arrive à cela en introduisant des pertes dans les circuits. Il est évident que cela correspond obligatoirement à une réduction notable de l'amplification obtenue.

D'autres méthodes existent. On ne peut éviter l'effet de la capacité C, mais on peut neutraliser son action en produisant un couplage qui agît en sens inverse. C'est le procédé de la neutralisation (neutrodyne) qui eut son heure de succès, mais qui est abandonné aujourd'hui.

Amortissement.

Les oscillations spontanées n'apparaissent pas toujours. Elles deviennent seulement inévitables quand, voulant obtenir une amplification importante, on utilise plusieurs étages en « cascade ».

Mais l'amplification donnée par un montage comme Fig. 70 est toujours plus faible que ne laisserait supposer un raisonnement simpliste.

On observe, par exemple, que le réglage d'accord du circuit oscillant II est extrêmement flou. La résonance n'est pas nette. On a l'impression d'un amortissement.

Amortissement causé par la lampe.

Et c'est bien de cela qu'il s'agit. Examinons le circuit dans lequel est inséré le circuit oscillant II.

Nous trouvons :

La résistance de la batterie, ou source anodique B, est à peu près négligeable. La seule résistance importante est celle de l'espace cathode-plaque qui, dans le cas présent, est de l'ordre de 25.000 ohms. En réalité, cette résistance est disposée aux bornes du circuit II (fig. 77). C'est donc une cause d'amortissement considérable.

Vers la lampe idéale.

Ces défauts de la lampe triode nous permettent de définir les qualités de la lampe idéale pour l'amplification à haute fréquence.

La capacité entre les électrodes de grille et de plaque serait très faible. La résistance interne serait très grande.

En augmentant la résistance interne, on augmenterait par cela même le coefficient d'amplification.

Nous savons déjà qu'il n'est guère possible d'augmenter le coefficient d'amplification et la résistance interne de la lampe triode au delà de certaines limites. Il faut, en effet, que les conditions de fonctionnement soient telles que la grille soit négative par rapport au filament.

S'il n'en était pas ainsi, un courant cathode-grille se produirait et la résistance grille-cathode étant alors très faible, le circuit oscillant d'entrée serait, en quelque sorte, paralysé.

On peut admettre, comme limite, une polarisation de 1,5 voit sur la grille.

Rien, en principe, ne nous empêche de construire une lampe triode dont le coefficient d'amplification soit de 1.000 par exemple.

Mais alors, pour qu'un courant anodique puisse circuler avec une tension négative de grille de 1,5 volt, il serait nécessaire d'appliquer sur la plaque une tension de l'ordre de 1.000 volts... ce qui est tout à fait prohibitif.

La lampe à écran.

Deux corps conducteurs quelconques A et B présentent une capacité l'un par rapport à l'autre. S'ils présentent une différence de potentiel électrique, il existera entre eux un champ électrique, qu'on pourra concrétiser par des lignes de force.

On évite la capacité entre les deux corps en disposant entre eux une plaque conductrice reliée au sol.

Ainsi on coupe les lignes de force. L'effet est le même si on remplace cette plaque par un grillage à mailles fines.

Nous voulons éviter l'action de la capacité entre l'électrode de grille et l'électrode de plaque. Il est logique de songer à la même solution.

Il faut songer cependant que le fonctionnement de la lampe exige nécessairement le passage d'électrons de la cathode vers la plaque. L'écran sera donc obligatoirement un grillage à mailles fines.

Mais pour obtenir la suppression de la capacité, il est nécessaire que cette quatrième électrode soit reliée à un point dont le potentiel est fixe. Allons-nous choisir la cathode ?

Ce n'est pas possible, car dans ces conditions l'écran exercerait une répulsion sur les électrons qui quittent la cathode-Four vaincre cette répulsion, nous serions amenés à utiliser une tension anodique encore plus élevée et notre ambition est précisément d'obtenir un grand coefficient d'amplification sans qu'il soit nécessaire d'utiliser une tension anodique trop forte.

Nous pouvons amener l'écran à un potentiel intermédiaire entre celui de la cathode et celui de la plaque. Qu'adviendra-t-il alors ?

Pour les électrons qui quittent la cathode, l'écran deviendra naturellement un centre attractif. Son action s'ajoutera tout simplement à celle de la plaque. Les électrons vagabonds partiront donc avec une vitesse plus grande.

Ils franchiront la grille. Certains seront captés par l'écran. Le plus grand nombre passera à travers les mailles, car au voisinage de l'écran l'action de la plaque est prépondérante.

La tension de l'écran jouera nécessairement un rôle. On pourra considérer que cette électrode est un relais qui facilite le départ des électrons.

Dans une lampe à grand coefficient d'amplification, la plaque est très éloignée de la cathode. Son action attractive est réduite, précisément à cause de cet éloignement. Il faut suppléer à cela en augmentant la tension.

Dans la lampe à écran, nous pouvons éloigner la plaque sans inconvénient, car l'écran se charge de produire le départ des électrons.

Ainsi, fait extrêmement intéressant, il devient possible d'utiliser une lampe à très grand coefficient d'amplification avec une tension anodique relativement faible.

Triode et Tétrode.

Pour que la différence apparaisse nettement, nous allons comparer une lampe triode et une lampe à écran. Choisissons deux lampes de technique aussi avancée, chacune dans sa catégorie.

  Triode
type E499
Tétrode
type E452 T
Coefficient amplification 99   900  
Résistance interne 33.000   450.000  
Capacité grille-plaque 1,5µF   0,003µF  

Ces chiffres sont assez éloquents par eux-mêmes. Une résistance d'amortissement de 33.000 ohms est fort importante. On peut admettre, en effet, que la résistance équivalente à un circuit oscillant de bonne qualité est de l'ordre de 100.000 ohms. En conséquence, une résistance de 450.000 ohms aura une action relativement faible.

La capacité parasite de la tétrode est 500 fois plus petite que celle de la triode. Pour arriver à cela, l'écran doit complètement séparer les deux électrodes. De plus, pour éviter la capacité dans le pied de verre de l'ampoule, une des électrodes doit sortir par le sommet de l'ampoule.

C'est soit la grille, soit la plaque. Le premier système est celui de toutes les lampes américaines. Nous donnons sur le croquis Fig. 81 la disposition intérieure des électrodes d'une lampe à écran européenne. Il faut noter que la réduction considérable de capacité grille-plaque de la lampe tétrode n'est acquise qu'au prix d'une augmentation dans la capacité plaque-cathode. Mais cette capacité ne joue pas un rôle important comme la capacité grille-plaque.

Caractéristique de la lampe à écran.

Nous avons défini, dans les chapitres précédents, ce qu'il fallait entendre par « caractéristique » d'un tube. Nous avons reconnu que pour connaître les constantes et les possibilités d'une lampe triode, il suffisait de posséder les courbes caractéristiques.

Il est certain que la même méthode, très simple, est applicable à la lampe à grille écran.

Remarquons, cependant, qu'il existe une variable supplémentaire qui est la tension de grille écran. Il est certain que cet élément doit fortement entrer en ligne de compte, puisque l'action attractive de l'écran est prépondérante au voisinage de la cathode.

Pour déterminer l'action dr la tension à laquelle on porte l'écran, il suffira de relever des courbes pour différentes valeurs.

Fixons donc, pour commencer, la tension écran à une valeur de 100 volts. Fixons la tension de grille écran à -1,5 volt par exemple, insérons un milliampèremètre dans le circuit anodique de la lampe et faisons varier la tension de plaque en partant d'une tension nulle (Fig. 82).

Nous observerons, pour commencer, un fait assez étrange : pour une tension anodique nulle, le courant anodique a déjà une intensité mesurable.

En faisant croître la tension plaque, nous observons ensuite une augmentation de l'intensité. C'est dans l'ordre normal des choses.

Mais, pour une tension plaque de l'ordre de 10 volts, nous remarquons un changement dans le sens des phénomènes. L'intensité anodique passe par un maxima.

Au delà de ce point toute augmentation de tension se traduit par une diminution de courant.

Bientôt, pour une tension de 30 volts environ, le courant s'annule.

Sommes-nous au bout de nos étonnements ? Non pas. En continuant d'augmenter la tension de plaque, le courant anodique s'inverse. La variation continue dans le même sens jusqu'à une tension anodique de l'ordre de 85 volts.

Après avoir passé par un minimum, la variation d'intensité change de sens encore une fois et se met à croître très rapidement. Le courant reprend son sens normal, puis sa variation devient beaucoup plus lente.

Le courant écran.

Nous avons mesuré l'intensité du courant anodique. Il est également intéressant de mesurer l'intensité du courant pris par l'écran, peut-être cela pourra-t-il nous permettre de nous faire une idée précise des phénomènes.

Nous arriverons à ce résultat en plaçant simplement un milliampèremètre dans le circuit de l'écran.

Nous remarquerons immédiatement qu'il y a une action fort nette des deux électrodes l'une sur l'autre.

La courbe des variations du courant écran est à peu près symétrique de celle du courant anodique, c'est-à-dire que lorsqu'une intensité de courant croît, l'autre décroît.

Interprétation.

A observer ces phénomènes, on a l'impression qu'à chaque moment un certain nombre d'électrons est disponible et que, suivant leurs tensions respectives, deux électrodes se les partagent.

Mais comment admettre qu'entre 25 et 90 volts le courant anodique soit en sens opposé au sens normal ? On explique le courant habituel en admettant que la plaque reçoit des électrons envoyés par la cathode...

Comment expliquer cette apparente anomalie ? C'est très simple.

La plaque perd, à ce moment, des électrons. On dit alors que la plaque est le siège d'une émission secondaire. Ces phénomènes sont fort complexes. Nos lecteurs nous excuseront donc de ne pas entrer dans des détails inutiles.

Résistance interne et dynatron.

Nous avons pu définir plus haut la résistance interne d'une lampe. Nous avons, en somme, généralisé la loi d'Ohm. Une augmentation de tension amène une augmentation de courant dans un rapport qui est précisément régit par la résistance.

Le simple examen de la courbe caractéristique permet de déterminer la valeur de la résistance.

Ainsi, par exemple, des portions de courbe comme D E, dans lesquelles l'intensité de courant anodique varie fort peu avec la tension correspondant évidemment à une résistance interne très élevée.

Au contraire, une portion comme C D correspond à une valeur très faible de la résistance interne.

Mais à quoi correspondra la portion B C, dans laquelle une augmentation de tension produit une diminution de courant ?

Il faut ici faire appel à une notion nouvelle qui est encore un prolongement de la loi d'Ohm. On admet alors que la résistance est négative. Or, nous connaissons déjà cette notion, étudiée sommairement à propos de la lampe détectrice à réaction. Nous savons aussi qu'un circuit oscillant introduit dans un système à résistance négative devient le siège d'oscillations à haute fréquence dès que la résistance effective est nulle. Il faut, pour cela, que la résistance négative soit égale, en valeur absolue, à la résistance positive du circuit.

La lampe à écran nous permet donc de produire des oscillations dans un circuit sans aucun couplage ni aucune variation, ce qui est évidemment très simple. On dît alors qu'elle fonctionne en dynatron.

Cette application particulière est d'ailleurs fort peu répandue. Nous nous sommes bornés à la signaler en passant.

On obtiendra l'entretien des oscillations par dynatron au moyen d'un montage analogue à celui de la Fig. 83.

Amplification à haute fréquence.

Dans l'emploi le plus général, la lampe à écran est utilisée pour l'amplification des courants de haute fréquence. C'est, dans ce cas, la portion de caractéristique D E qu'il convient d'utiliser.

On voit qu'elle correspond très sensiblement à une tension écran double de la tension anodique.

Les montages les plus fréquemment utilisés sont ceux des Fig. 84 et 85.

Grâce à la grande résistance interne, l'amortissement causé au circuit oscillant est réduit, bien qu'encore sensible. D'autre part, en utilisant un circuit oscillant de très bonne qualité, c'est-à-dire dont la résistance équivalente est fort élevée, on peut obtenir une très grande amplification par étage.

La construction de la lampe permet d'éviter les couplages parasites entre grille et plaque. Pour que le fonctionnement soit bon, il faut naturellement que d'autres couplages parasites extérieurs à la lampe n'existent point.

Pour éviter ceux-ci, on est amené à disposer chaque circuit oscillant dans une boîte métallique fermée formant ce qu'on nomme le « blindage ».

Si des couplages parasites se produisent, on observe une instabilité nuisible du montage ; en d'autres termes, des oscillations parasites se produisent qui paralysent le fonctionnement.

Autres applications.

La lampe à grille écran peut aussi être utilisée comme lampe détectrice, soit par condensateur shunté, soit par la courbure de plaque. Grâce à la grandeur de son coefficient d'amplification, elle permet d'atteindre une sensibilité nettement plus élevée que la lampe triode.

Il faut simplement tenir compte de ce fait que la résistance interne étant beaucoup plus élevée, il est nécessaire que la résistance d'utilisation soit elle-même beaucoup plus grande.

Amplification par lampe à écran.

Nous avons reconnu que, même dans une lampe triode, à faible résistance interne, on ne pouvait guère songer à profiter de la totalité du coefficient d'amplification.

Le signal est bien multiplié par ce coefficient, mais la partie utilisable n'est qu'une fraction de cette totalité.

On peut, d'ailleurs, recueillir une fraction d'autant plus grande que la résistance (ou impédance) d'utilisation est plus grande et que la résistance interne de la lampe est plus faible.

Ainsi, avec une triode dont le coefficient d'amplification est de 15, on peut, sans trop de mal, atteindre un « gain » de 14,8. Mais il ne faut pas songer un seul instant atteindre un résultat comparable avec une lampe à écran.

Dans le cas du tube triode, l'impédance d'utilisation est toujours très grande par rapport à la résistance interne. Il n'en est pas de même avec la lampe à écran, l'impédance d'utilisation étant, au contraire, toujours plus faible.

C'est fort aisé à comprendre. Nous avons pris exemple d'une lampe à écran dont la résistance interne est de 450.000 ohms.

Le moyen le plus simple pour réaliser une impédance d'utilisation élevée pourrait consister à utiliser une résistance ohmique. Il semble, a priori, qu'on puisse prendre 1,2 ou même 10 mégohms.

Grosse erreur ! Tout d'abord il n'est pas du tout certain que l'impédance, c'est-à-dire la résistance réellement opposée aux courants à haute fréquence, soït égale à la résistance. Il faut tenir compte des capacités parasites dans la lampe ou dans les connexions. Ces condensateurs nuisibles sont autant de chemins que la haute fréquence peut emprunter. Et, tout compte fait, on verra sans peine que l'impédance effective pour des courants à fréquence élevée ne dépasse pas quelques dizaines de milliers d'ohms.

Cette objection n'est pas la plus grave. La lampe ne peut donner son fonctionnement normal qu'à la condition formelle que la tension réellement appliquée sur l'anode soit de l'ordre de 200 volts. Or, en utilisant une résistance, il y aura obligatoirement une forte chute de tension... Un simple calcul nous montrerait qu'il faudrait pouvoir disposer d'une tension d'anode de plusieurs milliers de volts...

Il faut donc renoncer à cela. Le seul moyen de réaliser une impédance d'utilisation élevée est l'emploi d'un circuit oscillant accordé sur la fréquence à recevoir.

Cette impédance sera d'autant plus grande que les pertes dans le circuit seront plus réduites.

Dans les conditions normales, il est difficile de réaliser des circuits oscillants ayant une impédance d'utilisation qui dépasse 150.000 ohms. On est donc loin de compte et l'amplification utile n'est qu'une petite fraction de l'amplification produite par la lampe hors de notre atteinte.

C'est pour cela qu'il serait vain de créer des lampes dont le coefficient d'amplification soit de plusieurs milliers, si la résistance intérieure de la lampe s'accroît dans le même rapport. Cela remet en question une constante dont nous avons déjà parlé : la pente de la caractéristique. En fait, la pente est égale au rapport entre le coefficient d'amplification et la résistance interne.

On peut démontrer que, pour un circuit donné dont l'impédance d'utilisation est faible par rapport à celle, de la lampe, le « gain » est sensiblement proportionnel à la pente.

Prenons un exemple. Soit un circuit quelconque qui, associé à une certaine lampe à grille écran, nous donne une amplification de 50. Si nous remplaçons cette lampe par une autre dont la pente soit doublée, nous obtiendrons une amplification de 100, même si le coefficient d'amplification est plus faible.

Dans une lampe à grande résistance interne, quand il s'agit simplement de déterminer ses possibilités d'amplification, il suffit de considérer la pente, qui est alors une véritable figure de mérite.

Lampes à pente variable.

Le problème du réglage de l'amplification se pose souvent dans les récepteurs. L'amplification dont on a besoin pour recevoir une station lointaine doit être beaucoup plus grande que s'il s'agit d'une station locale. Un gain total de 100 peut être suffisant dans le dernier cas, alors que le premier peut exiger un gain de plusieurs millions.

Il ne Suffit pas de paralyser un circuit en exagérant les pertes. Cela pourrait détruire complètement la sélectivité de l'appareil. Il faut aussi que la lampe d'entrée ne reçoive point des tensions plus élevées que la tension de polarisation avec laquelle elle est réglée.

Pour plus de précision, traçons la courbe caractéristique d'une lampe à écran (fig, 86), courbe donnant l'intensité anodique en fonction de la tension de grille.

Dans le cas choisi comme exemple, le point P doit être tel que les variations de tension ne puissent se faire que dans les parties droites.

Mais nous ne pouvons soumettre à la lampe que des tensions à haute fréquence ne dépassant point un volt comme tension maxima.

En effet, à partir du point K, l'apparition d'un courant de grille est fortement à craindre.

Et puis, d'autre part, le point symétrique L est déjà dans une région fortement courbe de la caractéristique...

Remarquons aussi qu'il y aura obligatoirement une dissymétrie importante dans l'amplification, chaque fois que nous admettrons sur la grille des tensions relativement fortes. Cela résulte du fait que la caractéristique n'est pas exactement droite et que PL' n'est pas égal à PK'.

Il importe d'étudier quelles seront les conséquences pratiques de cette dissymétrie. On peut les résumer ainsi :

  1. La profondeur de modulation de l'émission reçue sera augmentée. La conséquence précise sera une déformation de la reproduction. On dit qu'il y a « surmodulation ».
  2. Certaines modulations parasites pourront être incorporées à la modulation de la station écoutée. C'est ainsi que certaines fréquences de modulation d'une station dont la longueur d'onde est voisine pourront être entendues. Elles feront alors partie de l'émission reçue et ne pourront plus être séparées quelle que soit la sélectivité des circuits suivants (transmodulation ou « cross talk »).

C'est parfois une modulation à la fréquence du secteur qui pourra être imprimée à la station écoutée et donnera ainsi l'illusion que le courant anodique est mal filtré.

Les remarques précédentes nous interdisent l'emploi d'un réglage d'amplification qui pourrait nous sembler très simple. Le gain, avons-nous exposé plus haut, est proportionnel à la pente. On pourrait donc songer à déplacer le point de fonctionnement du côté du point L, c'est-à-dire vers une diminution de la pente. Mais il est évident qu'on utiliserait alors des portions de caractéristique de plus en plus courbes et que les défauts signalés iraient en s'accentuant. La lampe à pente variable a été imaginée pour éviter ces inconvénients. Sa construction est déterminée pour obtenir une caractéristique analogue à celle de la Fig. 87. On remarque immédiatement que la caractéristique s'étend beaucoup plus loin vers la gauche.

En fait, il faut appliquer une tension négative beaucoup plus grande sur la grille pour produire l'annulation du courant de plaque.

La grandeur de la pente est variable tout le long de la caractéristique. Maxima au point M elle tend sensiblement vers zéro ou point N correspondant à une tension négative de 25 volts.

D'autre part, la courbure de la caractéristique en chaque point est beaucoup plus faible, malgré les apparences contraires, puisque la même courbure totale est répartie sur une longueur beaucoup plus grande.

Les défauts signalés sont complètement éliminés et il devient possible de faire varier l'amplification dans des limites considérables en agissant simplement sur la tension de polarisation.

La lampe à pente, variable constitue un gros progrès par rapport à la lampe à écran normale.

Inconvénients des lampes à écran.

Dans notre recherche vers la lampe idéale pour l'amplification à haute fréquence, la lampe à écran a constitué une importante étape. Pouvons-nous la considérer comme un idéal et n'est-il pas possible de trouver mieux encore?

La résistance interne d'une lampe à écran est fort élevée, cependant l'amortissement causé au circuit oscillant est encore sensible. Il serait souhaitable de construire des tubes présentant une résistance encore plus élevée à condition, toutefois, que la pente ne soit pas diminuée.

Remarquons encore que la zone utile d'amplification est assez limitée. Il ne faut pas qu'au cours du fonctionnement la tension anodique s'approche du point critique D (Fig. 82), sinon le fonctionnement devient instable.

On ne peut guère songer à fixer la tension écran comme indiqué Fig. 88. Cette méthode vient immédiatement à l'esprit. On constate, par exemple, que le courant consommé par l'écran est de 1 mA. La tension écran devant être de 100 V., en partant d'une résistance de 200 V., il semble bien que le problème puisse être résolu en insérant une résistance de 100.000 ohms...

Mais le montage serait instable. Si la lampe devient le siège d'émissions secondaires, il peut arriver que le courant écran soit inversé ; il est évident que la présence de la résistance tend à augmenter l'instabilité, puisque la tension écran se rapproche de la tension de plaque. Il faut donc prévoir un dispositif tel que la tension écran soit à peu près indépendante de l'intensité de courant consommée par l'écran. On arrive à ce résultat en prenant la tension écran sur un pont potentiométrique, constitué par deux résistances (voir Fig. 89). Il faut que le courant absorbé par le potentiomètre soit grand relativement au courant écran.

Cette méthode est un peu plus compliquée. Elle a encore l'inconvénient d'entraîner une consommation plus grande de courant anodique, puisque, en somme, l'intensité qui circule dans la seconde résistance est dépensée en pure perte.

La solution à ces difficultés est apportée par la lampe penthode.

LA PENTHODE

Revenons un peu en arrière, ou, plutôt, en jetant un coup d'œil rapide, tentons de mesurer le chemin parcouru depuis le tube diode ou valve jusqu'au tube tétrode ou lampe à grille écran.

Progrès immense, sans doute, mais causé tout simplement par l'adjonction d'une électrode au tube précédent... Il est donc parfaitement justifié de vouloir éviter les inconvénients de la lampe à écran en lui ajoutant une unique électrode.

Remarquons que tous ces inconvénients viennent en somme de la possibilité des émissions secondaires.

Des électrons normaux, émis par la cathode, atteignent la plaque ou l'écran et le choc peut détacher d'autres électrons. Ceux-ci, qui partent à faible vitesse, peuvent se diriger en sens inverse. Il faut éviter que ces électrons puissent se déplacer dans le sens interdit. Il suffit pour cela d'intercaler une barrière convenable entre l'écran et la plaque.

Cette barrière doit laisser passer les électrons normaux; elle aura donc la structure d'une grille.

Pour repousser les électrons partis de la plaque ou de l'écran, il faut que la tension de l'électrode supplémentaire soit inférieure à celle de la plaque et de l'écran. En fait, on choisit généralement la tension de la cathode. Bien mieux, dans de nombreux modèles de tubes européens, la connexion entre électrode d'arrêt (ou grille de suppression comme disent les anglo-saxons) est faite à l'intérieur même de l'ampoule.

Pour résumer, schématisons l'anatomie d'une lampe penthode (Fig. 87). En partant du centre d'émission des électrons ou cathode, nous trouverons la grille de commande G1 dont le rôle, indiqué par son nom, est de commander le fonctionnement du tube. C'est elle qui reçoit les tensions qu'il faut amplifier.

La troisième électrode G2 est la grille, écran dont le double rôle est d'activer la circulation des électrons qu'elle attire et d'annuler la capacité parasite du tube. Cette électrode est portée à une tension positive comprise entre la tension de la cathode et celle de l'anode. Nous avons reconnu que, dans une lampe à grille écran, il ne fallait pas que la tension écran fût trop voisine de la tension de plaque. Cette limitation n'existe pas ici, à cause de la présence de G3, qui évite les émissions secondaires. La tension écran peut être égale à la tension de plaque.

La quatrième électrode G3 est la grille d'arrêt dont nous avons exposé le rôle dans le précédent alinéa. Elle a encore comme effet additionnel de réduire encore la capacité parasite.

Enfin, la cinquième électrode ou anode recueille les électrons et intègre le résultat.

Résistance interne. - Coefficient d'amplification.

La présence de la grille d'arrêt donne au tube un accroissement notoire de résistance interne et, pour la même raison, de coefficient d'amplification.

Ainsi, par exemple, une lampe penthode moderne (type AF7) aura les constantes suivantes :

l'amplification maximum 200 est obtenue avec les valeurs suivantes :

Mais il est évident qu'il ne faut pas attacher trop d'importance à la grandeur du coefficient d'amplification.

Ce qu'il faut considérer avant tout, c'est l'inclinaison de la caractéristique. La règle valable ici, pour calculer le « grain », demeure la même que pour la lampe écran. Le « gain » est proportionnel à la pente et à l'impédance d'utilisation, la pente étant, naturellement, celle qui correspond au point de fonctionnement.

Ainsi, avec une impédance de 150.000 ohms, le tube, dont les caractéristiques sont données plus haut, donnera un gain de :

150.000 x 2,5 / 1.000 = 375

II faut évidemment diviser par mille pour tenir compte du fait que la pente est exprimée en milliampères par volt et non, comme le veulent les unités normales, en ampères par volt.

Caractéristiques.

La caractéristique courant anode-tension grille est beaucoup plus régulière que celle d'une lampe à écran. Il ne faut pas s'en étonner puisque, précisément, l'électrode supplémentaire a été ajoutée dans le but

Courant d'éviter les émissions secondaires, cause de l'irrégularité.

Nous avons représenté, figure 88, la caractéristique courant anode-tension anode d'une lampe penthode.

Pour que la différence soit immédiatement apparente, nous avons représenté en pointillé la caractéristique d'une lampe à écran de constantes correspondantes.

Utilisation.

La lampe penthode s'emploie dans les mêmes conditions et avec les mêmes circuits que la lampe à grille écran. Elle offre l'avantage d'une souplesse plus grande. Elle permet un choix beaucoup plus varié des tensions d'écran. Ainsi, dans le cas où on ne dispose que d'une faible tension totale, on peut utiliser une tension écran égale à la tension de plaque. Cela permet de conserver une polarisation de grille plus élevée ; en d'autres termes, le « recul de grille » est plus grand.

La plus grande résistance interne donne aux circuits un plus faible amortissement. On peut ainsi construire des récepteurs dont la sélectivité est plus grande.

La lampe penthode est utilisée pour l'amplification en haute ou en basse fréquence. Nous aurons l'occasion de revenir sur cette dernière utilisation.

On peut construire des penthodes a pente variable, tout comme on construit des lampes à grille écran répondant à ce qualificatif.

La penthode peut être utilisée également comme lampe détectrice, soit par condensateur shunté, soit par courbure de la caractéristique de plaque.

LES LAMPES SPECIALES

II existe des tubes « hexode » ou à six électrodes, heptode ou pentagrid, ou à sept électrodes, octode ou à huit électrodes. Il existe aussi d'autres tubes encore plus complexes d'apparence : diode-tétrode, double diode penthode, etc... Maïs toutes ces lampes répondent à des emplois particuliers : détection, régulation, changement de fréquence, etc... Aussi pensons-nous plutôt les décrire un peu plus loin.


CHAPITRE HUITIEME

LES RECEPTEURS

Nous avons sommairement décrit plus haut les principes utilisés dans la réception du rayonnement hertzien.

Dans ce chapitre, intitulé « Du côté du Poste Récepteur », il nous a naturellement .été impossible d’aller tout au fond des choses, car nous n’avions pas encore en notre possession les moyens indispensables.

Nous n’étions pas familiarisés avec les propriétés des tubes électroniques. Mais c’est maintenant chose faite. 11 nous est donc possible de compléter cette étude.

Avant d’aller plus loin, il est cependant nécessaire de rappeler les notions acquises antérieurement.

La réception.

Le rayonnement hertzien quitte l’antenne d’émission à peu près comme la lumière quitte la flamme de la bougie. Sous son influence, l’antenne réceptrice devient le siège de courants de haute fréquence ayant les mêmes caractéristiques, mais une amplitude beaucoup plus faible que le courant produit dans l’antenne d’émission.

Les faibles courants de réception doivent être « détectés » ou « rectifiés », c’est-à-dire qu’on doit les dépouiller de leur composante à haute fréquence, pour faire apparaître la composante à basse fréquence ou modulation.

On peut cependant augmenter leur amplitude en utilisant un ou plusieurs étages d’amplification à haute fréquence.

Apres détection, l’amplitude est encore beaucoup trop faible pour actionner convenablement la membrane d’un haut-parleur. On aura recours, cette fois, à l’amplification à basse fréquence ou amplification téléphonique.

Le dernier étage d’amplification téléphonique sera souvent nommé « étage de puissance ». C’est qu’en effet le rôle du dernier tube est de transmettre au haut-parleur la puissance électrique nécessaire pour faire mouvoir la membrane et transmettre à l’air ambiant les vibrations sonores, dernière étape des multiples transformations.

Dans les pages qui suivront, nous étudierons différents modèles de récepteurs. Nous pensons qu’avant d’entreprendre cette étude, il est utile de définir les qualités que doit posséder un bon récepteur. Ainsi nos lecteurs pourront saisir les avantages ou les inconvénients de tel ou tel système.

Les qualités d’un récepteur.

Les qualités principales d’un récepteur sont : la musicalité ou fidélité de reproduction, la sélectivité, la sensibilité et la puissance. II y a évidemment d’autres qualités sur lesquelles nous ne voulons pas insister ici : simplicité de manœuvre et d’installation, présentation, etc...

Nous avons mis la musicalité en premier lieu, parce que nous estimons que c’est la qualité la plus importante. Bien des auditeurs n’ont pas cette opinion et nous pensons qu’ils ont tort. Un récepteur peut donner des stations en nombre réduit, mais il doit les bien donner.

La sélectivité est cette qualité qui permettra au récepteur de sélectionner les différentes émissions. Un récepteur peu sélectif, réglé à Paris sur Rome, nous donnera, en même temps que l’émission italienne, l’audition de la station française. Si le défaut de sélectivité est encore plus accentué, il est possible que

Rome ne soit pas même discernable et disparaisse entièrement sous la station française.

La sensibilité permet d’entendre des stations peu puissantes ou lointaines avec un collecteur d’onde peu développé. Un appareil peu sensible ne nous permet d’entendre que la station locale ou les plus puissantes stations étrangères.

La puissance permet d’obtenir du haut-parleur une puissance acoustique importante sans que l’audition cesse d’être musicale et agréable.

Ces définitions élémentaires pourraient faire supposer que les différentes qualités d’un récepteur sont indépendantes et qu’un récepteur peut être sensible, musical et très sélectif. Or, il n’en est rien et cela n’est pas fait pour simplifier les choses.

Concevoir et réaliser un récepteur très sélectif n’est rien. Mais s’il doit être musical, c’est beaucoup plus difficile. Musicalité et sélectivité sont des qualités antagonistes.

Il en est de même pour la sélectivité et la sensibilité. On peut augmenter assez facilement la sensibilité, mais, en même temps, on diminue la sélectivité du récepteur.

Dans la suite de cette étude, nous trouverons la démonstration des faits que nous venons d’exposer.

ELEMENTS COMMUNS A TOUS LES TYPES DE RECEPTEURS

Nous n’étudierons dans cet ouvrage que les récepteurs destinés à la Radiodiffusion. Pour répondre à Cette définition, le récepteur doit fournir une audition en haut-parleur.

II y a, naturellement, des récepteurs utilisant des schémas différents ; par exemple, récepteurs à changement de fréquence, récepteurs à amplification directe, etc...

Cependant, ces différents types d’appareils ont des caractéristiques communes. C’est ainsi que les uns comme les autres utilisent un haut-parleur et que ce dernier est alimenté par une lampe de puissance. De même, nous avons eu l’occasion de reconnaître plus haut qu’un récepteur, quel qu’il soit, devait toujours posséder un détecteur.

Parmi ces éléments communs, qui ne dépendent pas du type d’appareil, on peut encore citer : le système d’alimentation, le système de régulation (antifading), le contrôle de résonance, le réglage silencieux.

Certains de ces éléments pourraient faire l’objet d’un volume tout entier. Il faut cependant savoir se limiter et nos lecteurs ne trouveront ici que des indications assez rapides sur ces questions. Ils comprendront aisément qu’il nous est impossible d’aller au fond des choses et que l’accès des détails nous est interdit.

ALIMENTATION DES RECEPTEURS

Pour faire fonctionner un récepteur, il faut une source d’énergie. Môme au voisinage d’un émetteur, l’énergie à haute fréquence captée par l’antenne est beaucoup trop faible pour faire mouvoir utilement la membrane du haut-parleur.

On fait donc appel à une source d’énergie électrique extérieure qui peut être le secteur ou des batteries de piles ou d’accumulateurs.

L’alimentation par batterie est en décroissance. Peu à peu, les « postes secteur » remplacent les appareils à batterie ?, sauf, toutefois, dans certains cas particuliers où il n’y a pas de secteur, comme dans certains pays ou encore à bord d’un véhicule routier, marin ou aérien.

Un récepteur a besoin de deux sources d’alimentation qui peuvent être confondues dans certains cas :

  1. Une source pour le chauffage des cathodes des lampes, et
  2. Une source de tension anodique pour l’alimentation des plaques, écrans, etc...

La source de chauffage peut être indifféremment du courant alternatif ou du courant continu. Maïs la source de tension anodique doit être obligatoirement du courant continu pur, comme celui que fournit une batterie de piles ou d’accumulateurs. .

Nous n’avons donc rien à dire dans ce chapitre au sujet de l’alimentation par batterie. Le courant utilisé peut être employé tel qu’il est fourni par la source, à condition, naturellement, que la tension soit convenable.

Si la tension de la batterie est de quelques volts seulement, comme c’est le cas à bord d’une voiture, il faut élever cette tension à l’aide d’un dispositif quelconque. Ce n’est pas très simple. Nos lecteurs trouveront une étude de la question dans « La Radio en Automobile » (Etienne Chiron, Editeur).

Secteur continu.

Il est très rare que le courant fourni par un secteur « continu » soit du courant analogue à celui d’une batterie. C’est du courant tel que le fournissent des dynamos. Ayons recours à la présentation graphique pour apprécier plus facilement la différence (fig. 89).

Le courant de la batterie correspond à une ligne parfaitement droite. Le courant de la dynamo est une ligne légèrement ondulée. Chaque ondulation correspond au passage d’une lame de collecteur sous une ligne de balais.

Ce courant ne peut être utilisé tel qu’il est. On peut le considérer comme étant la superposition d’un courant rigoureusement continu et d’un courant alternatif. On dit, en d’autres termes, qu’il y a une composante continue et une composante alternative.

Or, la composante alternative est nuisible. Elle se trouvera amplifiée par les lampes et rendra toute audition impossible. Il faut donc s’en séparer.

Filtrage.

De même qu’on filtre de l’eau qui contient des matières en suspension, ou filtrera le courant continu pour obtenir la séparation des deux composantes. Pour arriver au but on utilisera les remarques suivantes :

  1. Une inductance n’est pas un obstacle pour le courant continu. Par contre, c’est une barrière pour le courant alternatif, barrière d’autant plus efficace que l’inductance est plus grande et que la fréquence du courant alternatif est plus élevée.
  2. Un condensateur ne laisse point passer le courant continu. Par contre, il laisse d’autant mieux passer le courant alternatif que sa capacité est plus grande et que la fréquence du courant alternatif est plus élevée.

La figure 90 montre une application de ces remarques. Le condensateur C est pour le courant alternatif un chemin de moindre résistance. C’est presque un court-circuit, d’autant plus que sur l’autre chemin se trouve l’inductance L qui est un obstacle sérieux pour le courant alternatif. A la sortie de cette inductance, on trouve encore un condensateur C2, second court-circuit pour le courant alternatif.

Le rôle de ce condensateur est double. Il permet, en même temps, le passage des courants de haute fréquence qui circulent dans l’appareil récepteur.

Le filtrage sera d’autant plus efficace que L1, C1 et C2 seront d’une valeur plus élevée. On peut le rendre encore plus efficace en plaçant deux ensembles, comme la figure 90, en série. Un tel ensemble constitue une « cellule » de filtre. On peut aussi disposer une inductance sur chacune des branches du filtre, comme nous l’avons indiqué figure 91. Valeur des éléments.

La valeur des éléments dépend naturellement de la perfection qu’on désire atteindre dans le filtrage. Pratiquement, l’inductance L est souvent constituée par l’enroulement d’excitation du haut-parleur dynamique.

En cas d’utilisation d’une inductance, il faut penser que l’enroulement est parcouru par l’intensité anodique. Comme l’inductance comporte un circuit magnétique, il faut songer que sa valeur dépend de l’induction magnétique des tôles. Il faut, par conséquent, éviter toute saturation, sinon l’inductance effective pourrait devenir extrêmement faible.

Pour réduire les conséquences de la saturation, on utilise souvent des inductances munies d’un entrefer.

Les condensateurs sont soit du type « isolé au papier », soit encore du type électrochimique. Ces derniers ont les avantages du bon marché et d’un faible encombrement. On peut facilement constituer des condensateurs de 15 ou même 30 microfarads. De tels condensateurs seraient irréalisables avec un isolement papier. Ils auraient un encombrement absolument prohibitif.

Lorsqu’on choisit - et c’est le cas général - des condensateurs électrochimiques ou électrolytiques, il faut savoir qu’un tel condensateur doit être utilisé avec une certaine polarité. Généralement, le boîtier extérieur correspond au pôle négatif. De plus, le condensateur n’est pas une capacité parfaite. On peut le considérer comme constitué par un condensateur parfait auquel on a adjoint une résistance en série et une résistance en parallèle (fig. 92).

La résistance série vient naturellement réduire l’efficacité du filtrage. La résistance parallèle laisse continuellement passer du courant. Le condensateur ne peut donc pas demeurer chargé.

Alimentation en courant alternatif.

On peut, à l’aide d’un simple transformateur statique, transformer à volonté la tension d’une source de courant alternatif. C’est un fait précieux.

Le chauffage des cathodes sera directement assuré en courant alternatif, moyennant certaines précautions. Mais il faut, pour l’alimentation anodique, transformer le courant alternatif en courant continu.

Pour cela, il faut utiliser un redresseur. Le redresseur le plus répandu est la valve électronique, ou diode, dont nous avons déjà eu l’occasion de parler dans cet ouvrage.

Nous donnons, figure 93, le schéma d’une alimentation complète sur courant alternatif.

Le primaire du transformateur T est prévu pour le fonctionnement sous différentes tensions de secteur.

Un secondaire S fournit le courant nécessaire pour le chauffage des cathodes. La tension dépend du type de lampe utilisé : 4 volts pour les lampes européennes; 6,3 ou 2,5 volts pour les lampes américaines, etc...

Le secondaire S3 fournit le chauffage de la cathode ou filament de la valve redresseuse.

Le secondaire S2 fournit la tension anodique. Il y a, en réalité, deux secondaires placés en série qui alimentent chacun une plaque de la valve. Si on veut disposer de 200 volts, il faut prévoir un secondaire donnant approximativement 2 X 200 ou 400 volts.

Le courant ne peut traverser l’intervalle filament plaque que dans un sens. Aux bornes du circuit C1, on recueillera donc une série d’impulsions unidirectionnelles.

L’ensemble Cl, L1, C2 filtrera ces impulsions et on recueillera aux bornes de C 2 une tension parfaitement continue, si les éléments du filtre ont été judicieusement choisis.

Récepteurs universels.

Les récepteurs universels ou « tous courants > peuvent être indifféremment utilisés sur courant alternatif ou sur courant continu. Les principes utilisés sont les mêmes. Les filaments assurant le chauffage des cathodes sont généralement connectés en série.

Le courant anodique traverse la valve même lorsqu’il s’agit de courant continu.

LES HAUTS-PARLEURS

Si ce livre avait été écrit il y a quelques années, ce chapitre des haut-parleurs aurait eu certainement un développement beaucoup plus considérable. Il nous aurait fallu décrire les haut-parleurs à pavillons exponentiels, les haut-parleurs électromagnétiques, les haut-parleurs magnétodynamiques, etc... Mais tous ces modèles sont aujourd’hui virtuellement abandonnés, tout au moins pour l’application qui noua intéresse. Le haut-parleur électrodynamique a triomphé de tous les autres.

C’est, certes, un résultat curieux quand on songe que le premier haut-parleur décrit - antérieurement à 1900 - par Sir Oliver Lodge est précisément le haut-parleur électrodynamique.

Principe du haut-parleur électrodynamique.</p>

Imaginons (fig. 94) une bobine, un solénoïde, placé dans un entrefer annulaire, dans lequel règne un champ magnétique. Les règles de l’électromagnétisme montrent que cette bobine sera sollicitée par une force dans le sens des flèches F, pour un certain sens du courant dans la bobine B. Pour un sens opposé la force sera dirigée naturellement dans le sens contraire.

Si, maintenant, la bobine est parcourue par ducourant alternatif, les impulsions qu’elle recevra seront en somme la traduction mécanique du courant.

La bobine est solidaire d’une membrane. Les mouvements de celle-ci sont communiqués à l’air ambiant et, finalement, le courant électrique est transformé en son. Il est bien évident, d’après cela, que le son produit aura la fréquence du courant initial.

Le haut-parleur électrodynamique est donc aussi simple que possible. Il comporte, en définitive, un cône fixé sur sa périphérie (en A, B, etc...), de telle sorte qu’il puisse se déplacer parallèlement a lui-même. Une autre fixation est prévue en C D, dont le rôle est surtout de guider la bobine dans ses déplacements. II faut évidemment que la bobine puisse se déplacer dans le sens des flèches F, sans venir toucher le noyau magnétique ni la pièce polaire. Le champ magnétique est créé soit par un aimant permanent d’excellente qualité, soit, plus fréquemment, par une bobine que parcourt un courant continu (bobine d’excitation).

La bobine mobile, solidaire du cône, comporte forcément un nombre de spires assez réduit. L’impédance qu’elle présente est donc extrêmement faible par rapport a celle du tube de sortie. On équilibre les impédances en intercalant, entre le tube et la bobine, un transformateur d’un rapport déterminé. Ce transformateur, qui fait partie du haut-parleur, est souvent prévu avec un primaire fractionné de telle sorte qu’il soit possible d’ajuster l’impédance à la valeur convenable.

Conditions à réaliser pour obtenir une reproduction parfaite.

La suspension du cône ne doit posséder aucune force de rappel. Si on écarte le cône, il doit demeurer dans la position qu’on lui donne. II est clair que cette condition idéale n’est pas réalisable pratiquement. En pratique, on choisit une suspension aussi douce que possible, mais des conditions mécaniques s’opposent à la suppression de toute force de rappel.

Le guidage doit être parfait, c’est-à-dire que les déplacements du cône et de la bobine doivent être rigoureusement parallèles.

Le cône doit se déplacer rigidement, comme un piston qui chasse l’air devant lui. S’il se déforme, il entre forcément en vibration. Il se produit alors, pour certaines fréquences, des modes de vibration privilégiés ou, en d’autres termes, des résonances. Dans la reproduction, ces fréquences de résonance sont fortement favorisées et la reproduction cesse d’être linéaire.

Or, il est évident que le cône se déformera moins s’il est de petites dimensions, parce qu’il sera beaucoup plus rigide. Il peut donc sembler a priori qu’un cône de faible diamètre est favorable à la bonne reproduction.

D’autre part, l’inertie du système mobile doit être aussi faible que possible. A l’impulsion la plus brève doit immédiatement correspondre un mouvement du cône.

Or, l’inertie sera faible si la force de rappel est faible (condition déjà énoncée) et si le cône est léger. Un petit cône est moins lourd qu’un grand.

Mais ne nous hâtons pas de conclure. A puissance acoustique égale, le déplacement du cône sera d’autant plus important que la fréquence à reproduire sera plus basse pour un cône d’une dimension donnée.

Ce déplacement sera également proportionnel à l’inverse du diamètre. Cela veut dire que, pour la reproduction d’une sonorité basse quelconque, avec une puissance donnée, le cône se déplacera d’autant moins qu’il sera d’un plus grand diamètre. Pour une pièce normale d’appartement, une bonne puissance moyenne correspondra à 1 watt modulé. Il faut nécessairement que l’amplitude du cône soit compatible avec sa suspension, pour la plus basse fréquence transmise.

Or, pour les plus basses fréquences, on arrive très rapidement à des déplacements mécaniquement impossibles.

Le tableau suivant, extrait d’une revue technique anglaise, Wireless Engineer, en apporte la preuve formelle. Les chiffres correspondent à un cône dont le diamètre est de 20 cm, ce qui semblera déjà considérable.

Ces considérations montrent bien l’énorme difficulté rencontrée dans l’établissement d’un haut-parleur parfait. Si Ton veut l’extrême aigu, un petit cône est nécessaire, mais si l’on veut l’extrême grave, il faut obligatoirement prévoir un cône de plus de 20 cm.

Comme toujours, dans des cas semblables, on sacrifie à droite et à gauche. Les extrêmes ne sont pas parfaitement respectés.

La meilleure combinaison.

Les haut-parleurs généralement utilisés ont un diamètre de 18 à 20 cm. Mais, en partant de cette considération que l’extrême aigu est généralement sacrifié dans la modulation des stations, on peut, avec avantage, choisir un haut-parleur dépassant ces chiffres.

Si l’on veut l’extrême grave, il faut dépasser 25cm et arriver, par exemple, à 28 ou 30 cm. A partir de ce moment on sacrifie l’aigu.

Nous devons ajouter qu’un haut-parleur de grand diamètre est nettement plus coûteux.

Que faire de plus, si l’on désire s’approcher davantage de l’idéal inaccessible ? C’est bien simple : on utilisera deux haut-parleurs. Un grand et un petit. Le premier est chargé de reproduire surtout les basses et le second surtout les aigus.

Si l’on veut faire encore mieux, on mettra trois haut-parleurs. C’est le cas de certaines installations de cinéma sonore.

Problème de l’excitation.

Le haut-parleur est d’autant plus sensible que le champ magnétique dans lequel se déplace la bobine mobile est plus intense. Nous avons déjà signalé plus haut qu’on peut utiliser un aimant permanent.

Cette solution ne permet pas d’avoir un champ très intense.

Avec l’électro-aimant, on peut obtenir nettement mieux. Mais il faut, naturellement, dépenser une certaine puissance électrique, sous forme d’un courant continu.

Dans de nombreux cas, on utilise l’inductance de l’enroulement d’excitation comme inductance de filtrage. Il reste évidemment une composante alternative de faible amplitude qui se traduit par un léger bourdonnement. Mais ce n’est pas grave.

La résistance de l’enroulement d’excitation et de filtrage est généralement comprise entre 2.000 et 3.000 ohms. La tension aux bornes, correspondant au bon fonctionnement, est de 120 à 130 volts.

On peut aussi se servir du courant redressé et filtré. Dans ce cas, on choisit une résistance de 75.000 ohms.

Enfin, pour certaines applications particulières, on construit des haut-parleurs dont l’excitation est alimentée sous 6 ou 12 volts (cas des récepteurs pour automobiles).

Le résultat est toujours le même, puisque la puissance dépensée est la même. On aura le même résultat dans les cas suivants, pris comme exemples :

Les autres haut-parleurs.

Nous nous bornerons à citer les autres modèles de haut-parleurs.

Electromagnétique. - Une palette mobile de fer doux est soumise à un champ magnétique fixe auquel on superpose le champ magnétique causé par le courant modulé (fig. 96).

Electrostatique, basé sur les attractions et répulsives électriques qui s’exercent entre les deux plaques d’un condensateur polarisé par une tension continue.

Ces haut-parleurs sont à l’heure actuelle de moins en moins utilisés, (fig. 97).

Piézoélectrique, basé sur les compressions et extensions d’un cristal spécialement taillé, soumis à un champ électrique variable.

LA LAMPE DE PUISSANCE

La lampe de puissance a pour fonction de transmettre au haut-parleur la puissance électrique destinée à faire mouvoir sa membrane et, par conséquent, à produire des vibrations sonores. Le terme s’explique ainsi. II faut songer, en effet, qu’une onde sonore représente une certaine énergie. Le diaphragme du haut-parleur effectue un travail contre l’air élastique.

Le fonctionnement de cette lampe de puissance sera donc notoirement différent du travail des autres tubes. Ces derniers avaient pour unique rôle de transmettre aux tubes suivants les tensions complexes développées dans leur circuit anodique. Ces tensions chargeaient les circuits de grille, qu’on peut tout simplement considérer comme un condensateur minuscule, s: minuscule même que la puissance électrique nécessaire pour le charger peut être négligée.

Puissance dissipée.

Nous avons déjà étudié la notion de puissance dissipée à propos de la lampe génératrice. Sans doute n’est-il pas inutile de revenir sur cette question.

Soit (fig. 100) un tube dans le circuit de plaque duquel nous avons placé un milliampèremètre. Un voltmètre V permet de mesurer la tension existant entre plaque et cathode.

Dans le circuit anodique est un transformateur T qui est, par exemple, le transformateur de sortie du haut-parleur.

Pour l’instant, aucune tension alternative n’est appliquée à la grille de la lampe.

Le milliampèremètre M nous permet de mesurer le courant anodique, c’est, par exemple, 50 milliampères.

Le voltmètre V mesure la tension anodique qui est, par exemple, de 200 volts.

Lorsque, dans un circuit quelconque, il circule un courant d’intensité 1 sous une tension K, on sait que la puissance électrique produite est de :

Cette puissance apparaît sous forme d’un travail, sous forme d’énergie lumineuse ou encore sous forme d’un dégagement de chaleur.

C’est ce qui se produit dans notre exemple. Il faut nécessairement que cette puissance électrique apparaisse quelque part. Ici, elle apparaît sous forme de chaleur sur l’anode ou plaque du tube.

Un tube d’un type quelconque peut normalement supporter la dissipation d’une certaine puissance électrique. On se sert même de cette notion pour désigner un modèle de tube. On dira, par exemple, que la lampe finale de tel appareil est de 8 watts dissipés.

Si l’on exige d’un tube quelconque la dissipation d’une puissance plus élevée que la puissance prévue par le constructeur, on observe un échauffement anormal. On pourra, par exemple, observer que l’anode de la lampe devient rouge sombre, puis rouge vif.

Pour favoriser la dissipation de la température, l’anode des lampes finales est rugueuse et de couleur noire. Le verre de l’ampoule est aussi clair que possible, ou bien encore on le recouvre intérieurement d’un dépôt de graphite noir et mat.

Point de fonctionnement.

Nous savons déjà que le fonctionnement aura lieu sans distorsion à condition que la caractéristique soit droite. Mais d’autres conditions, tout aussi importantes, existent qui doivent être respectées.

Pour les déterminer rapidement, traçons, figure 101, la caractéristique courant anode-tension grille, d’un tube de puissance, sous une tension E, recommandée par le constructeur comme meilleure tension d’utilisation.

La caractéristique peut être considérée comme droite entre C et G. Nous serons donc amenés à choisir comme point de fonctionnement normal, le milieu de cette partie droite. C’est le point P, par exemple, auquel correspond la tension de grille ou polarisation Ug.

A ce point normal correspond le courant anodique Ia. La puissance dissipée par la lampe est IaxV. Elle ne doit pas dépasser le maximum permis par le constructeur de lampes.

Que faudrait-il faire si ce maximum se trouvait dépassé ? Notons en passant, qu’en pratique on n’a jamais à faire de tels raisonnements. Le fabricant de tubes indique, pour un modèle donné, quelles sont les valeurs des différentes tensions et le mieux est de se conformer à ces indications. Mais nous cherchons, pour l’instant, à quoi correspondent précisément ces différentes valeurs.

Si le maximum se trouvait dépassé nous serions amenés à diminuer la tension de plaque. Tout se passerait alors comme si la caractéristique était déplacée vers la droite et, à la même valeur de courant anodique, correspondrait une puissance dissipée plus petite.

Puissance modulée.

Revenons maintenant à la figure 100. Nous appliquons une tension alternative entre les bornes A et B.

Remarquons de suite que si le point de fonctionnement est bien choisi et si l’amplitude de la tension ne dépasse pas les valeurs permises, le courant anodique ne change pas.

C’est à dire que la puissance électrique empruntée à la source anodique ne change pas non plus.

Chaque variation de tension de grille aura pour effet une variation de courant plaque. En plus du courant continu anodique nous trouverons donc un courant alternatif dû à l’amplification du tube.

Ce courant alternatif traversant le primaire P, du transformateur T, provoquera l’apparition d’une tension alternative entre les bornes C et D du secondaire S.

Cette source de courant alternatif représente aussi une certaine puissance électrique. Nous pouvons nous en servir pour faire mouvoir la membrane d’un haut-parleur. Si nous voulons mesurer quelle puissance électrique est disponible, nous pourrons disposer entre C et D une résistance d’une valeur convenable, mesurer le courant qui la traverse et la tension aux bornes en nous servant, naturellement, d’instruments prévus pour le courant alternatif.

Cette puissance disponible sous forme d’un courant alternatif est, en fait, la puissance utile ou puissance modulée fournie par la lampe.

D’où vient-elle ? Quelle est sa source ? Il est évident, d’après ce que nous savons des tubes électroniques, qu’elle ne peut être empruntée qu’à la source de courant anodique. Or, puisque la puissance empruntée est demeurée la même, il faut nécessairement que cette puissance modulée soit une fraction de la puissance dissipée.

Grandeur de la puissance modulée.

La puissance modulée qu’on peut recueillir entre les bornes C et D dépend, naturellement, de l’amplitude des variations qu’on applique à la grille, entre les bornes A et B.

Le rapport entre les deux grandeurs dépend du coefficient d’amplification et de la résistance interne de la lampe. En fait, on peut admettre sans grande erreur qu’il est proportionnel à la pente de la caractéristique.

Mais on ne saurait tirer d’une lampe une puissance modulée trop importante. Il faut que, dans ses variations, la tension de grille reste entre certaines limites. D’un côté, on ne peut dépasser le point C, à partir duquel la caractéristique cesse d’être droite et, de l’autre, on ne peut dépasser G, car un courant grille se produit, ce qui change complètement les conditions de fonctionnement.

Distorsion.

Nous venons de supposer que la caractéristique est rigoureusement droite entre les points C et B. En pratique, aucune caractéristique n’est une droite rigoureuse. Il faut tenir compte d’une certaine courbure et, en fait, une certaine distorsion est toujours présente. Comment mesurer celle-ci ?

On suppose qu’une tension sinusoïdale est appliquée à la lampe. Si la distorsion était nulle, on recueillerait dans le circuit de plaque une tension rigoureusement sinusoïdale. Mais il n’en est pas ainsi et la tension recueillie n’est pas sinusoïdale. C’est dire qu’on peut la considérer comme superposition d’une tension sinusoïdale et d’harmoniques. L’amplitude relative du second harmonique donne une mesure de la distorsion.

On dira que la distorsion est de 5 % si l’amplitude de l’harmonique II représente les 5/100 de l’amplitude totale.

Ainsi donc, on ne peut parler de la puissance modulée qu’une lampe peut fournir qu’en indiquant en même temps la distorsion admise. Une distorsion de 5 % est tolérable ; une distorsion de 10 % est considérable.

L’indication de puissance modulée qu’on trouve sur les notices ou sur les catalogues, correspond généralement à une distorsion de 5 %. Pour de bonnes lampes modernes, on peut admettre que la puissance modulée représente environ le 1/5 de la puissance dissipée. Ainsi, une lampe de 10 watts dissipés peut fournir 2 watts modulés.

Pour que cette puissance soit réellement disponible, il faut naturellement que l’amplitude des variations de grille soit convenable. Enfin, il faut que l’impédance d’utilisation représentée par le transformateur T, sur la figure 100, soit en rapport avec l’impédance de la lampe.

Emploi d’une penthode.

On peut utiliser soit une lampe triode, soit une lampe penthode. On ne peut songer à utiliser une lampe à grille écran pour des raisons que nous allons exposer.

Dans tous les circuits anodiques des tubes en fonctionnement, on trouve un courant continu (courant anodique) et un courant variable qui est précisément le résultat de l’amplification. L’amplitude de la composante variable ne dépasse guère quelques volts. On peut la négliger par rapport à la tension anodique qui est souvent de 200 volts. Mais il n’en est pas de même de la lampe finale. L’amplitude de la tension variable peut, dans ce cas, atteindre 100 volts.

Supposons que nous utilisions un tube à grille écran. Pour «ne tension anodique de 200 volts, nous serions amenés à utiliser une tension écran de l’ordre de 100 volts.

Pendant le fonctionnement, la tension écran reste fixe, mais il n’en est pas de même de la tension de plaque. La tension plaque effective est égale à la tension anodique à laquelle il faut ajouter algébriquement la tension instantanée qui, nous l’avons vu, peut atteindre 100 volts. Par instant, la tension plaque effective sera donc de 200-100=100volts, c’est-à-dire égale à la tension d’écran.

Or, nous savons que, dans ces conditions, des phénomènes particuliers prennent naissance. Sans insister sur ces détails, on peut comprendre qu’une distorsion importante se produira, toute amplification linéaire devenant impossible.

Avec la lampe penthode, rien de tout cela n’est à craindre. Les émissions secondaires sont empêchées par la grille d’arrêt.

Lampe triode.

Les avantages de la lampe triode sont les suivants :

1° Caractéristique droite.

La caractéristique utile d’une lampe triode est à peu près droite. Ainsi, on est assuré de pouvoir obtenir une amplification linéaire.

2° Faible impédance.

La résistance interne est très faible. Pour que la reproduction de toutes les fréquences soit possible, îl faut que l’impédance d’utilisation soit grande par rapport à l’impédance de la lampe. Cette dernière est constante, quelle que soit la fréquence. Il n’en est pas de même pour l’impédance d’utilisation qui, en fait, est une inductance.

La condition énoncée sera d’autant plus facile à réaliser que l’impédance du tube sera faible.

Lampe penthode.

Grande amplification.

La lampe penthode donne une amplification beaucoup plus considérable que la lampe triode. Avec une tension d’attaque ou tension d’entrée plus faible, elle donne toute la puissance modulée.

Par contre, il faut que le transformateur d’utilisation soit étudié tout spécialement, parce que l’impédance de la lampe est considérable. Si le transformateur n’offre pas une impédance suffisante, la reproduction manquera de fréquences basses. Ce défaut semblera d’autant plus grand que certains harmoniques parasites peuvent être produits par la caractéristique légèrement coudée de la lampe.

RECEPTEURS A AMPLIFICATION DIRECTE

Nous avons déjà appris que certains schémas d’amplificateurs à haute fréquence sont en même temps des sélecteurs. C’est le principe de ces appareils qui est appliqué dans le type de récepteur que nous décrivions.

Les courants captés par le collecteur d’onde (fig. 102) subissent déjà une première sélection dans le circuit oscillant d’entrée ou circuit d’accord (1). Les tensions à haute fréquence développées entre .les bornes du circuit oscillant sont appliquées entre cathode et grille d’un premier tube.

Celui-ci fournit dans son circuit anodique des tensions à haute fréquence de plus grande amplitude.

Ces tensions agissent encore par résonance sur un circuit oscillant (II) et le résultat est applique entre grille et cathode d’un second tube, etc...

Les différents circuits oscillants sont accordés sur la fréquence qu’il s’agit de recevoir à l’aide d’un condensateur variable.

Aussi, pour passer de l’écoute d’une station a une autre, sera-t-il nécessaire de modifier simultanément les réglages des circuits I, II et III. L’appareil est dit à « amplification directe » ; parce que les oscillations captées par l’antenne sont directement amplifiées par l’appareil. Cette expression sera mieux comprise quand nous aurons exposé plus loin le principe des appareils à changement de fréquence.

En somme, un récepteur à amplification directe est constitué par un détecteur précédé par un amplificateur à haute fréquence.

Inconvénients de ce type de récepteur.

Pour chacun des étages d’amplification, le « gain » obtenu sera proportionnel à l’impédance d’utilisation. Cela suppose naturellement que l’impédance des lampes est notoirement plus grande que l’impédance des circuits. C’est le cas tout à fait général car, aujourd’hui, on utilise à cet effet des lampes à écran ou des penthodes qui répondent bien aux conditions fixées,

II faut donc réaliser des circuits oscillants ayant le maximum de qualité si l’on veut obtenir une grande amplification par étage. Cela n’est pas toujours facile. Il faut avoir recours à des bobinages, en fil divisé (fil de Litz) et d’une forme spécialement étudiée.

Il est difficile d’obtenir une très grande sensibilité. En effet, on peut songer à multiplier le nombre des étages d’amplification. Mais, en fait, la réalisation d’un montage comportant deux étages seulement pose déjà un certain nombre de problèmes. Il faut que le récepteur soit stable. Cela veut dire qu’il ne doit pas être le siège d’oscillations spontanées. Dès qu’un amplificateur oscille, il cesse de fonctionner normalement.

Pour obtenir la sélectivité indispensable, il est nécessaire de prévoir un couplage faible entre les circuits de plaque et les circuits de grille de la lampe suivante. Mais en opérant ainsi, on diminue naturellement la sensibilité.

Le filtrage des oscillations, c’est-à-dire la sélectivité, est obtenue par la succession des circuits oscillants. On peut accorder circuit de plaque et circuit de grille de chaque lampe. Ainsi, un récepteur comme celui de la fig. 102 aurait cinq circuit ? outillants. C’est évidemment une complication car il faut prévoir un condensateur variable par circuit. Ces condensateurs sont commandés par un axe commun. D’autre part, le bobinage accordé occupe un certain volume; il est impossible de réaliser de très bons bobinages dans un espace restreint. Chaque circuit est enfermé dans un blindage. Enfin, si le récepteur possède plusieurs gammes d’écoute, comme c’est le cas de tous nos récepteurs, il faut prévoir, pour chaque circuit, un commutateur. Le récepteur malgré la simplicité du principe, deviendra rapidement très encombrant et très coûteux.

Conclusion

Pour toutes ces raisons, les récepteurs à amplification directe sont beaucoup moins répandus aujourd’hui qu’ils ne l’étaient il y a quelques années. Le principe permet cependant de réaliser des récepteurs très musicaux et parfaitement adaptés à la réception des stations locales ou puissantes.

RECEPTEURS A CHANGEMENT DE FREQUENCE

On peut dire aujourd’hui que la grande majorité des récepteurs de T.S.F. construits de par le monde est constituée par des appareils à changement de fréquence.

Le principe utilisé peut sembler assez compliqué, à priori, mais il est extrêmement fécond en résultats.

Il permet de construire très facilement des récepteurs très sensibles et très sélectifs dont le prix de revient est peu élevé.

Principe

Dans les récepteurs à amplification directe, l’amplification à haute fréquence est réglée sur la longueur d’onde qu’il s’agit de recevoir. Si nous voulons écouter le Poste Parisien, tous les circuits seront réglés sur la longueur d’onde de 312 m. 8. Si, après cela, nous voulons écouter Radio-Toulouse, nous échangerons simultanément les réglages de tous les circuits oscillants pour les amener sur la longueur d’onde de Radio-Toulouse, soit 328 m. 6.

Dans un récepteur à changement de fréquence le principe est tout différent. L’amplificateur est réglé une fois pour toutes sur une longueur d’onde qu’on a choisie - 3.000 mètres par exemple. - Un dispositif spécial, le changement de fréquence, transforme la longueur d’onde des stations reçues, ou, si l’on préfère, leur fréquence. Quand nous voudrons recevoir le Poste Parisien, nous réglerons les circuits pour que la longueur d’onde de 312 m. 8 soit convertie en longueur d’onde de 3.000 mètres ; quand nous voudrons recevoir Radio-Toulouse, nous arrangerons les circuits pour que la conversion de fréquence ait lieu pour l’onde de 328 m. 6. Ainsi, l’amplificateur pourra être réglé une fois pour toutes.

Nous pouvons maintenant préciser un peu la notion du récepteur à changement de fréquence.

Le circuit d’entrée sera forcément réglé sur la longueur d’onde qu’il s’agit de recevoir. Il faut développer aux bornes du circuit oscillant les tensions qui correspondent à la station qu’on désire recevoir.

Après quoi, le circuit suivant est réglé de telle sorte que la longueur d’onde reçue devienne précisément la longueur d’onde de fonctionnement de l’amplificateur. Ainsi on conçoit que le réglage de ce dernier puisse être invariable.

Avantages

Quelle que soit la longueur d’onde reçue, l’amplification a toujours lieu sur la même longueur d’onde. On peut donc, sans aucun inconvénient, prévoir un amplificateur à grand nombre de circuits oscillants et, par conséquent, très sélectif. Ces circuits pourront être entièrement enfermés dans des blindages car il est inutile que le condensateur d’accord soit accessible. Aucun commutateur n’est nécessaire. Nous verrons, par la suite, que le changement de fréquence est obtenu en manoeuvrant un seul condensateur variable. Ainsi donc, cet unique condensateur commande, en réalité, quatre circuits oscillants ou plus. Pour cette première raison, les appareils à changement de fréquence peuvent avoir une sélectivité très grande.

Ils peuvent être très sensibles. En effet, le « gain » obtenu dans l’amplificateur peut être considérable ; parce que cet appareil est établi dans le simple but d’amplifier une mince bande de longueur d’onde, Il est relativement facile d’établir un appareil donnant les meilleurs résultats pour une longueur d’onde déterminée. C’est beaucoup plus délicat quand l’amplificateur doit pouvoir s’adapter à la réception d’une très large bande de longueur d’onde comme c’est le cas lorsqu’il s’agit d’un récepteur à amplification directe.

La sensibilité est d’autant plus facile à obtenir que la fréquence de conversion est généralement plus basse que la fréquence de l’émission que l’on reçoit.

Ainsi la longueur d’onde de 3.000 mètres correspond à la fréquence de 100 kilocycles/s. Les pertes dans les circuits sont d’autant plus importantes que la fréquence est grande.

Un circuit établi pour 100 kilocycles aura des pertes très réduites. Si l’on établissait un circuit avec des éléments de qualité électrique équivalentes, il se pourrait fort bien que les pertes soient prohibitives à la fréquence de 1.000 kilocycles correspondant à la longueur d’onde de 300 mètres. Ainsi, on pourra constituer les circuits sans prendre des précautions excessives, et l’amplification obtenue par étage sera beaucoup plus grande.

Ces mêmes considérations sont applicables pour la « sélectivité » du récepteur qui dépend, elle aussi, de la qualité des circuits. Mais d’autres remarques permettent de vérifier que la sélectivité est beaucoup plus facile à obtenir par le changement de fréquence.

Soit à obtenir la séparation de deux stations présentant une différence de fréquence de 10 kilocycles.

Une station est sur 1.000 kc/s - ou 200 m. - et l’autre sur 1.010 kilocycles. Il est évident que ce n’est pas l’écart absolu qui intervient dans les questions de sélectivité, mais l’écart par rapport à la fréquence reçue.

Séparer 10 kc par rapport à 1.000, cela représente un écart de 1 %.

Après changement de fréquence sur 100 kc., une station est sur 100 kc. et l’autre sur 110. L’écart relatif est donc de 10 %. Il est dix fois plus grand. Il est donc normal de constater que la séparation est beaucoup plus facile à obtenir.

Procédés de changement de fréquence

1" Par détection.

Lorsqu’on compose deux mouvements vibratoires de même nature, on donne naissance à des phénomènes d’interférences. On peut facilement établir une démonstration expérimentale. Il suffit de faire vibrer deux cordes voisines d’un piano pour observer une série de ronflements et de diminution des sons produits. La fréquence de ces « battements » est précisément égale à la différence de fréquence des deux oscillations composantes.

Le phénomène n’est pas différent si l’on compose des oscillations à haute fréquence. On obtient une série de battements dont la fréquence est égale à la différence de fréquence des deux vibrations en présence.

Ainsi, en composant dans un circuit approprié les tensions alternatives représentées fig. 104a et fig. 104b, on obtiendra une tension variable semblable à la fig. 104c.

Il ne faudrait point croire que le problème est résolu. C’est qu’en effet, la tension obtenue n’est pas la fréquence f1-f2. 11 ne s’agit encore que de la fréquence des battements, ce qui n’est pas du tout la même chose.

Si nous soumettons les battements à un redresseur ou à un détecteur quelconque, nous obtiendrons une tension de forme semblable à la fig. 104. Nous trouverons donc dans les circuits une sorte d’impulsions à une fréquence égale à la fréquence des battements.

Ces impulsions, si elles agissent sur un circuit accordé, se transforment en une tension oscillante. Ainsi, nous avons obtenu le changement de fréquence.

2° Par effet Stroboscopique.

Il y a déjà un certain nombre d’années, nous avons breveté en France et à l’étranger un circuit de changement de fréquence utilisant un principe tout à fait différent : le Strobodyne.

Un stroboscope est un appareil qui permet de ralentir à nos yeux les mouvements rapides de certains corps. On peut suivre à l’oeuil les mouvements d’un moteur d’automobile tournant à 4.000 tours par minute ou plus. Les plus infimes déformations des organes sont ainsi mises en évidence.

On arrive à ce résultat très simplement. Si le moteur tourne à 4.000 tours par minute, il suffira de l’éclairer par une lumière qui s’interrompt 3.999 fois par minute, A nos yeux, le moteur semblera ne tourner qu’à la vitesse de 4.000 - 3.999 ou 1 tour par minute.

C’est un principe tout à fait semblable qu’on utilise dans les appareils à changement de fréquence Stroboscopique.

Imaginons un amplificateur réglé sur une fréquence de 1.000 kilocycles. Supposons que, par un moyen quelconque, il nous soit possible de paralyser 900.000 fois le fonctionnement par seconde. Un simple graphique suffit à montrer que les 900.000 impulsions reconstituent, en quelque sorte, une oscillation, à 1.000 - 900 ou 100 kilocycles

Notre fig. 105 permettra sans doute à nos lecteurs de comprendre le mécanisme de la chose. Il s’agit, naturellement, d’un résultat schématique ou stylisé ; mais le principe est ainsi beaucoup plus accessible. Dans la fig. 105, la fréquence qu’il s’agissait de transformer était f1, les impulsions successives étaient a la f2. La courbe reconstituée, intégrée, qui est en pointillé, est à la fréquence fl - f2.

Il ne saurait être question de construire un organe mécanique capable de paralyser 900.000 fois par seconde un amplificateur.

Le fonctionnement d’un amplificateur est assuré seulement pour des valeurs de tensions grille parfaitement définies. En dehors de ces valeurs, l’amplification diminue fortement ou même cesse complètement. On obtiendra donc l’effet désiré en faisant varier à la fréquence de 900 kilocycles la tension grille d’une lampe amplificatrice. La tension appliquée sera tout naturellement fournie par une lampe oscillatrice. Ainsi, le procédé stroboscopique rejoint le procédé par détection, puisque dans.les deux cas on fait appel à une oscillatrice locale auxiliaire.

Dans le premier modèle de Strobodyne, la même lampe remplissait les deux fonctions d’oscillatrice et d’amplificatrice. On se servait tout simplement d’une lampe triode.

Des précautions spéciales devaient être prises pour que l’oscillation locale ne soit pas bloquée dans le circuit de réception et pour que le réglage d’un circuit n’entraîne pas le déréglage de l’autre circuit. A titre purement documentaire nous donnons fig. 106 le schéma du premier modèle de « Strobodyne ».

Avec une lampe à écran

Il va sans dire qu’on peut appliquer le même principe aux lampes à écran.

Examinons, par exemple, le schéma fig. 107. En O est une lampe oscillatrice triode. En M est la lampe modulatrice. Les oscillations dont il s’agit de transformer la fréquence sont appliquées comme d’habitude, entre grille et cathode.

La tension moyenne de plaque est très voisine de la tension d’écran. On sait que, dans ces conditions, le point de fonctionnement est, par exemple, le point P de la fig. 108.

Si nous diminuons légèrement cette tension de plaque, nous tomberons dans la zone OP de la caractéristique. Il est évident que cette zone correspond à une résistance intérieure presque nulle. Nous établirons donc virtuellement presque un court-circuit à travers le circuit M.F.

Au contraire, si nous augmentons la tension anodique, le point de fonctionnement se déplacera dans la région P.O., c’est-à-dire vers la zone de fonctionnement normal, correspondant à une grande résistance interne.

Tout se passe donc comme si nous établissions un court-circuit aux bornes du circuit M.F. à la fréquence de l’oscillation locale. Ainsi, nous obtenons l’effet stroboscopique que nous cherchons.

Ce montage ne peut être utilisé avec une lampe penthode puisque la zone O P se trouve supprimée.

Couplage cathodique

L’oscillation locale peut être aussi appliquée entre cathode et grille. On utilise soit une résistance de couplage, soit un enroulement approprié.

Nous donnons l’exemple du couplage cathodique en utilisant les résistances de polarisation des deux lampes, oscillatrice et modulatrice (fig. 109). La tension d’oscillation locale est transmise de la lampe O à la lampe M à travers le condensateur C.

La lampe M ne donne son effet amplificateur que pour une tension de grille convenable. La tension moyenne est choisie à la limite. Toute variation négative paralyse la lampe, toute variation positive assure un fonctionnement dans l’autre sens.

L’avantage de ce genre de montage est de n’amortir nullement les circuits. Ils permettent d’utiliser une lampe penthode, qui donne généralement un gain de sensibilité appréciable.

Par contre, leur grave inconvénient est d’appliquer une tension à haute fréquence entre cathode et élément chauffant de la lampe (filament). Dans ces conditions, de très nombreuses lampes font entendre des bourdonnements ou encore des craquements ressemblant à de mauvais contacts.

Couplage électronique

Devant le développement de plus en plus grand des récepteurs à changement de fréquence, les constructeurs de lampes n’ont pas hésité à étudier des lampes spécialement adaptées au but à atteindre.

Nous ne parlerons que pour mémoire de «l’Hexode» oscillatrice-modulatrice.

Aujourd’hui les modèles les plus répandus sont dans les séries américaines : l’heptode ou pentagrid et dans les séries européennes : octode.

Ces tubes comportent, en somme, les éléments oscillateurs et les éléments modulateurs enfermés dans la même ampoule.

Entre les deux éléments, correspondant, en somme, à O et M, de la fig. 108, il y a un couplage « électronique », c’est-à-dire apporté par un courant d’électrons.

Examinons un montage à Heptode (fig. 110). En partant de la cathode, nous trouvons une première grille G 1 qui, avec une petite anode auxiliaire G 2, constitue l’élément triode oscillateur. Les oscillations entretenues sont produites à la façon habituelle grâce au couplage L1 L2.

La troisième grille G3 est une grille écran, dont le rôle est de séparer statiquement l’élément d’oscillation de la grille de commande G4. Cette dernière est une grille de lampe à pente variable.

La dernière grille est, aussi, une grille écran. On peut considérer que les éléments G4, G5 et l’anode constituent, avec le flux électronique qui a traversé les autres grilles, une lampe à grille écran.

On conçoit que l’amplification soit déterminée en partie par la densité du flux électronique qui traverse G4. Or, ce flux est interrompu à la cadence de l’oscillation locale. L’amplification cesse donc d’être possible f1 fois par seconde si la fréquence locale est de f1 période par seconde. C’est donc encore un effet stroboscopique qu’on utilise ici.

L’OCTODE

L’Octode est à l’Heptode ce que la penthode H.F. est à la lampe à grille écran. Cette simple vue suffit à montrer que c’est, en fait, un perfectionnement important.

Pour passer de l’Heptode à l’Octode, on intercale entre G5 et l’anode une grille d’arrêt, reliée à la cathode, dont le rôle est de rendre impossible les émissions secondaires.

Le montage de l’Octode est indiqué fig. 111. Il est à peu près semblable à celui de l’Heptode. Il est, toutefois, plus simple car une tension unique de 70 volts peut servir à la fois à l’alimentation de l’anode auxiliaire et des grilles écrans.

Toutefois, quand on veut tirer de la lampe tout ce qu’elle peut donner, il est recommandable d’utiliser une tension écran de 90 volts et de limiter la tension d’anode auxiliaire à 70 volts. Dans ces conditions, la lampe devient d’une souplesse remarquable.

Des essais faits sur l’octode AK2 ont montré que des oscillations stables sont encore entretenues sur une longueur d’onde de 3 mètres. Les difficultés seraient sans doute insurmontables avec la pentagrid.

Enfin, l’octode permet d’obtenir une sensibilité nettement meilleure, grâce à sa « pente de conversion » plus élevée.

La « pente de conversion » est un facteur qui permet de déterminer le gain d’une lampe changeuse de fréquence, comme la pente de la caractéristique permet de déterminer l’amplification d’une lampe à écran ou d’une penthode.

On obtient le réglage de l’amplification en appliquant en R une tension de polarisation plus ou moins élevée.

Inconvénients des récepteurs à changement de fréquence

Nous avons précédemment fait connaissance avec les avantages des récepteurs à changement de fréquence. Nous savons qu’ils peuvent être d’une merveilleuse sélectivité et d’une grande sensibilité. Leurs schémas sont simples. Hs sont faciles à mettre au point et, par conséquent, relativement peu coûteux.

Ces qualités sont fort intéressantes. Si le récepteur à changement de fréquence n’a point conquis du premier coup sa place dans le ciel de la radio, c’est qu’il n’est pas sans quelques petits inconvénients. Examinons ceux-ci.

NECESSITE DE LA PRESELECTION

Supposons, comme plus haut, que la fréquence de conversion soit de’ 100 kilocycles. En d’autres termes, l’amplificateur est réglé une fois pour toutes sur une longueur d’onde de 3.000 mètres.

La longueur d’onde qu’il s’agit de recevoir est, par exemple, de 300 mètres. La fréquence correspondante est de 1.000 kilocycles.

Pour que le changement de fréquence ait lieu, il faut que l’oscillation locale présente une différence de fréquence de 100 kilocycles, par rapport à la fréquence qu’on désire recevoir.

Nous remarquons immédiatement que deux combinaisons sont possibles ; l’oscillation locale pourra être réglée sur 1.100 ou sur 900 kilocycles. Dans les deux cas, la différence voulue de 100 kilocycles sera obtenue.

Nous adoptons la première solution. L’oscillation locale est donc sur 1.100 kilocycles. Mais cette fréquence correspond aussi bien à la réception d’une émission dont la fréquence est de 1.200 kilocycles puisque, cette fois encore, la différence de 100 kilocycles est observée.

Ainsi (fig. 109) pour un même réglage du circuit oscillant II, on peut recevoir deux longueurs d’onde différentes. Il nous est maintenant facile de connaître les conséquences que tout cela peut entraîner... Supposons que îe récepteur (fig. 109) soit réglé pour écouter une station sur 300 mètres. Le premier circuit Cl est accordé sur 300 m. ou 1.000 kilocycles; le second circuit est accordé sur 1.100 kilocycles, soit 273 mètres environ.

Mais il est fort possible que, simultanément, une station transmette sur 1.200 kilocycles, soit 250 mètres. Cette station se trouve défavorisée parce que le circuit I n’est pas accordé sur 250 mètres. Si cette station est puissante, elle pourra cependant produire encore une certaine tension sur la grille d’entrée de M. Il y aura aussi, pour elle, changement de fréquence. Dans le circuit de plaque de M les deux stations auront alors la même longueur d’onde et il deviendra impossible de les séparer, quelle que soit, naturellement, la sélectivité de l’amplificateur.

Nous avons supposé que les fréquences se combinent exactement pour donner les deux points exacts de changement de fréquence. Mais le mal sera tout aussi grand si, par exemple, la seconde station est sur 1.203 kilocycles. Apres changement de fréquence sa fréquence sera de 103 kilocycles. Elle donnera donc, avec l’autre station, une interférence sous forme d’un sifflement à 103 - 100 - 3 kilocycles ou 3.000 périodes.

Pour éviter cela, il faut que la deuxième station ne puisse point faire naître sur la grille de lampe M une tension à haute fréquence notable. Il faut, en d’autres termes, que le circuit I soit très sélectif.

Deux solutions

1° Présélecteur.

Avec les fréquences de conversion utilisées habituellement qui sont comprises entre 135 et 110 kilocycles, l’expérience montre que le circuit oscillant I est insuffisant pour éviter le passage de la station gênante. Même si le circuit oscillant est d’excellente qualité il ne peut atténuer suffisamment la fréquence gênante. Le mal se traduit par des sifflements forts désagréables qui rendent l’écoute à peu près impossible.

Puisqu’un circuit oscillant ne suffit pas, il faut en mettre deux. On réalise alors un présélecteur. Les deux circuits oscillants peuvent être couplés de plusieurs façons différentes. Ils peuvent être couplés tout simplement par induction (fig. 112), par résistance et capacité (fig. 113), par capacité ou statiquement (fig. 114). On peut encore imaginer des couplages mixtes.

La question du couplage est fort importante. Si le couplage est trop grand ou trop serré, le présélecteur n’aura qu’une efficacité insuffisante. S’il est trop faible, l’appareil perdra beaucoup de sensibilité.

Il y a un couplage optimum qu’il s’agit de déterminer. Cela serait assez facile si le couplage demeurait le même pour toute la gamme couverte. Or, il n’en est rien.

Si le couplage est correct pour la longueur d’onde de 400 mètres, il est à craindre qu’il soit trop faible à 550 mètres et exagéré à 200... C’est pour obvier, dans une certaine mesure, à ces inconvénients, qu’on a imaginé des couplages mixtes.

2° Moyenne fréquence élevée.

On peut remarquer les deux stations qui correspondent au même réglage possible du condensateur II sont séparées par le double de la fréquence de fonctionnement de l’amplificateur. L’écart sera d’autant plus grand que cette fréquence sera grande.

Les récepteurs de radiodiffusion doivent assurer la réception entre 200 et 600 mètres et entre 1.000 et 2.000 mètres environ. A cette dernière longueur d’onde correspond la fréquence de 150 kilocycles. Il semble donc, à première vue, que la limite extrême de la moyenne fréquence soit précisément de 150 kilocycles.

Or, cette limite n’assure point encore l’impossibilité des interférences. Ainsi, par exemple, le second point de réglage d’une station sur 300 mètres (1.000 kc.) correspond à 700 kilocycles, soit 430 mètres environ. C’est dire que le brouillage est encore dans la zone utile.

Nous avons proposé, il y a déjà deux ans, et industriellement appliqué, l’emploi d’une fréquence de conversion beaucoup plus élevée, comme 400 kilocycles par exemple, qui correspond à une longueur d’onde de 750 mètres environ.

Dans ce cas, le second battement est rejeté hors de la zone utile. Il ne saurait donc y avoir d’interférence, tout au moins pour la gamme des petites ondes.

Mais la gamme des grandes ondes  ?

D’abord, contrairement à ce que pensent de nombreux auditeurs, le changement de fréquence s’opère aussi bien en augmentant la longueur d’onde qu’en la diminuant. La condition posée reste la même : il faut que l’oscillation locale présente avec l’oscillation à recevoir la différence de fréquence voulue.

Prenons un exemple. II s’agit de recevoir une station qui transmet sur 1.500 mètres (200 kilocycles) avec une moyenne fréquence sur 400 kilocycles. L’oscillation locale sera réglée sur 600 kilocycles, soit sur 500 mètres.

Remarquons, cependant, que cette dernière fréquence correspond aussi à la réception de la fréquence 1.000 kilocycles, soit 300 mètres. Un sifflement peut donc se produire si une station puissante émet sur 300 mètres. Mais l’écart existant entre 300 et 1.500 mètres est assez grand pour que le mal ne soit pas gênant, même à faible distance d’un émetteur.

D’autre part, il est facile de montrer que le groupe de fréquences dangereuses est compris entre 1.100 et 950 kilocycles. Comme cette bande n’est pas très étendue, on peut introduire dans le circuit d’accord un dispositif efficace pour empêcher leur action...

En vertu de ce que nous avons montré plus haut, la sélectivité et la sensibilité d’un changeur de fréquence sur 400 kilocycles seront moins grandes qu’avec une fréquence de conversion de 100 kilocycles par exemple. Mais l’appareil aura pour lui des avantages de fidélité et de simplicité qui sont loin d’être négligeables.

ALIGNEMENT DES CIRCUITS

Dans un récepteur à amplification directe, tous les circuits sont réglés sur la longueur d’onde de la station qu’il s’agit de recevoir. Pour constituer un récepteur avec un mono réglage, il suffit de construire tous les circuits avec les mêmes caractéristiques. S’ils ont la même inductance et la même capacité repartie il est certain qu’ils seront réglés sur la même longueur d’onde quand on mettra aux bornes de chacun d’eux un condensateur de même valeur. On utilisera donc un condensateur variable dont toutes les actions sont rigoureusement identiques... Cela n’offre aucune difficulté.

Mais c’est autrement compliqué quand il s’agit d’un récepteur à changement de fréquence. Les circuits I et II (fig. 109) ne sont pas sur la même longueur d’onde. Ils doivent présenter, au contraire, une différence de fréquence constante.

Une des premières solutions appliquées a consisté à munir le circuit d’un condensateur variable dont la courbe a une variation précisément étudiée pour répondre à la condition exposée plus haut. Mais cette solution, qui peut être parfaite pour une gamme de longueur d’onde, ne peut guère convenir quand on veut couvrir plusieurs gammes.

On utilise aujourd’hui une autre solution, théoriquement moins parfaite, mais les résultats sont tout à fait excellents.

Trimmer et padding

Traçons la courbe qui nous donne les longueurs d’ondes des circuits I et II en fonction des degrés des condensateurs variables, dont les sections sont, cette fois, tout à fait identiques. Nous obtenons les courbes I et II.

Le problème consiste à modifier un circuit, le circuit II par exemple, pour que la courbe devienne exactement semblable à la courbe I.

Si nous ajoutons en parallèle aux bornes du condensateur variable un condensateur fixe de valeur convenable, il nous sera possible de faire coïncider le commencement de chaque courbe. En effet, nous lisons sur la fig. 115 que la longueur d’onde correspondant au début de la courbe II est plus faible que pour la courbe I. Le condensateur ajouté ou « trimmer » permettra pour ce début de faire coïncider les deux courbes.

Pour l’autre extrémité de la courbe, la situation est renversée ; la longueur d’onde est plus élevée pour le circuit II que pour le circuit I. Tout se passe donc comme si le condensateur II avait une valeur trop élevée. Pour réduire sa valeur, nous pouvons, cette fois, placer un condensateur en série ou « padding ». C’est ainsi que deux condensateurs de 0,5/1.000e en série ne font plus qu’une capacité de 0,25/1.000e...

Ce procédé nous permet de faire coïncider l’autre extrémité de la courbe. Nous obtiendrons ainsi la courbe IV.

En combinant les deux moyens, en agissant si c’est nécessaire sur l’inductance de la bobine II, nous pourrons facilement arriver à faire coïncider les deux courbes d’une façon rigoureuse.


CHAPITRE NEUVIEME

LA PROPAGATION DU RAYONNEMENT HERTZIEN ET LE « FADING »

« Fading », en anglais, signifie évanouissement ou affaiblissement. Le terme est bien choisi. Chez nous, on l'utilise généralement sans en comprendre le sens. Un auditeur quelconque sait généralement ce dont il s'agit quand il est question de « fading » ; il vous regardera avec stupeur si vous lui parlez de l'évanouissement du rayonnement...

Nous avons succinctement étudié la propagation du rayonnement dans le premier chapitre de cet ouvrage ; nous devons maintenant entrer dans des détails plus précis et exposer par quelles théories on explique les faits observés.

D'abord, quels sont ces derniers ?

Propagation et distance.

Lorsque nous nous éloignons d'une source lumineuse, nous observons que les rayons lumineux qui nous parviennent sont de plus en plus faibles. Si l'on peut lire un journal à 1 mètre d'une bougie, cela devient plus difficile à 2 mètres et impossible à 10 mètres.

On observe à peu près la même chose, en premier examen, pour le rayonnement hertzien. Le plus simple récepteur, voire même une galène et un écouteur, permet d'entendre la station des P.T.T. dans un rayon de quelques kilomètres. A une distance de 50 kilomètres, cela devient déjà beaucoup plus compliqué, et à 500 kilomètres on ne peut pas toujours être assuré d'obtenir une audition, quel que soit le récepteur employé.

Cependant, il faut faire une grande différence suivant qu'il s'agit d'une grande longueur d'onde, ou, au contraire, d'ondes moyennes ou courtes.

Grandes longueurs d'ondes.

Les grandes longueurs d'ondes sont celles qui sont supérieures à 1.000 mètres. Les lois de leur propagation sont relativement simples. Leur affaiblissement est à peu près régulier avec la distance. Les conditions de réception sont presque les mêmes de jour que de nuit. Toutefois, lorsqu'il s'agit de stations très lointaines, comme Moscou, écoutée en France, on observe qu'il y a un renforcement très net à la tombée de la nuit. Certains récepteurs qui ne peuvent donner l'audition de la station russe dans la journée permettent une réception confortable le soir.

De plus, le soir, on observera facilement que l'audition n'est pas parfaitement stable. Elle sera très puissante pendant un quart d'heure, puis faiblira et pourra même disparaître pendant de longues minutes. De nouveau, elle gagnera en puissance pour atteindre un maximum.

C'est déjà une manifestation du « fading » ou de l'évanouissement du rayonnement.

Pour que le phénomène soit observable sur les « grandes ondes », il faut écouter, en général, des stations extrêmement éloignées.

Sur le territoire français, le « fadîng » n'est nettement perçu en grandes ondes, d'une façon habituelle, que pour Moscou, Stamboul, etc...

Ondes moyennes.

Le domaine des ondes moyennes s'étend de 200 mètres à 1.000 mètres environ. La zone réservée de la radiodiffusion s'échelonne au-dessous de 600 mètres.

La propagation nocturne diffère très nettement de la propagation diurne. Ces différences s'accusent à mesure qu'on va vers des longueurs d'ondes plus courtes. Cela se conçoit. Le classement en « grandes ondes » et en « petites ondes » a été forcément arbitraire. L'onde de 1.000 mètres ne peut présenter des différences notables avec l'onde de 999 mètres...

Propagation diurne.

L'affaiblissement avec la distance est plus rapide, à puissance égale, pour les ondes les plus courtes. Une station de 60 kilowatts, travaillant sur une longueur d'onde de 300 mètres, est déjà fort difficile à écouter à une distance de 350 kilomètres. Il n'en serait pas ainsi si cette même station avait une longueur d'onde de 1.500 mètres.

Si l'émission était faite sur 200 mètres, l'affaiblissement avec la distance aurait lieu encore plus vite.

Propagation nocturne.

Mais les conditions changent au moment du coucher du soleil et même dans les heures qui précèdent. Un renforcement considérable se produit dans l'audition et, spécialement, dans l'audition au delà d'une certaine distance. Les conditions ne changent pratiquement pas dans la zone qui permet une bonne audition diurne, c'est-à-dire au voisinage même de l'émetteur et dans un rayon de quelques centaines de kilomètres autour de lui.

Pour écouter, dans la matinée, Londres Régional (342 m.), il faut utiliser un récepteur déjà fort sensible. Mais, à partir de 16 h. en hiver, et de 20 heures en été, un renforcement considérable se produit. L'audition peut être plus puissante que celle d'une station située seulement à une centaine de kilomètres.

Mais cette audition n'est pas stable. Son amplitude varie d'une façon presque continuelle. Pendant quelques minutes, elle devient considérable, mais ne tarde pas à diminuer pour disparaître d'une façon presque complète. Ces variations d'intensité constituent précisément les phénomènes d'évanouissement ou de « fadîng- ».

Il semble bien que, pour une longueur d'onde donnée, il existe une distance à laquelle l'évanouissement se produit avec le maximum d'intensité.

On peut assimiler le « fading » à un phénomène grossièrement périodique. On notera, par exemple, que Rome accuse en moyenne une disparition toutes les cinq minutes... Or, cette fréquence du fading dépend à la fois de la longueur d'onde et de la distance.

Plus la longueur d'onde du rayonnement est faible et plus la fréquence du « fading » est rapide. A grande distance, le phénomène s'atténue quelque peu et se produit à une fréquence plus faible.

Ondes courtes et très courtes.

Les phénomènes signalés dans le paragraphe précédent s'accentuent encore dans cette gamme de rayonnement comprise entre 9 mètres et 200 mètres. 11 y a une différence encore plus nette entre la propagation diurne et la propagation nocturne, mais, suivant les longueurs d'ondes et les distances à franchir, c'est la propagation diurne ou l'autre qui est la plus avantageuse...

Quand on s'éloigne de l'émetteur, on trouve une zone dans laquelle l'amplitude diminue très rapidement. Le diamètre de cette zone dépend de la puissance de l'émetteur, de la longueur d'onde du rayonnement et de l'heure.

Après cela, on trouve généralement un cône de silence, dans laquelle toute réception est pratiquement impossible. Le diamètre de cette zone est très variable.

Au delà, on trouve une nouvelle zone d'audition. Les signaux peuvent alors être entendus avec la plus grande facilité. Cette intensité de réception ne s'affaiblît que fort peu avec la distance. On constate parfois le contraire et, souvent, au maximum de distance constitué par l'antipode de l'émetteur la réception est d'une puissance extraordinaire.

Dans l'utilisation des zones très courtes, il faut tenir compte de certains facteurs :

  1. Les ondes inférieures à 20 mètres constituent les ondes diurnes. Elles conviennent lorsque le récepteur et l'émetteur sont sur la face éclairée du globe terrestre.
  2. Les ondes comprises entre 20 mètres et 30 mètres constituent les ondes à trajet mixte. On les utilisera quand, par exemple, il fera nuit à la station d'émission et jour à la station de réception.
  3. Les ondes supérieures à 30 mètres constituent les ondes nocturnes.

Tout ce que nous avons dit des ondes moyennes peut s'appliquer aux ondes courtes. Il faut cependant modifier les conclusions dans le sens imposé par la réduction de longueur d'onde. La fréquence du « fading » peut devenir extrêmement élevée. Il peut, par exemple, se produire 30 ou 40 évanouissements pendant une seconde.

A cette véritable « scintillation » du rayonnement peuvent s'ajouter d'autres variations plus lentes.

La complexité de ces phénomènes, les résultats paradoxaux donnés par les ondes courtes expliquent pourquoi ce domaine a été si longtemps méconnu par les techniciens.

L'ère d'utilisation des ondes courtes ne date que de quelques années. En 1923, les communications intercontinentales étaient réalisées par des rayonnements à très grande longueur d'onde. C'est ainsi que la station de Sainte-Assise utilisait une longueur d'onde d'environ 20.000 mètres et que sa puissance pouvait atteindre 1.000 kilowatts. Les ondes courtes permettent d'obtenir des résultats supérieurs avec une puissance de 10 ou 20 kilowatts...

Théories de la propagation.

Il faut maintenant expliquer, d'une manière aussi simple que possible, les observations que nous venons de citer. Ce sera le rôle de la théorie.

Le rayonnement hertzien, bien qu'il soit de même nature que le rayonnement lumineux, se comporte cependant d'une manière différente. S'il n'en était pas ainsi, on observerait une décroissance régulière avec la distance.

Puisque l'intensité de réception varie non seulement avec la distance et la puissance de l'émetteur, mais encore avec l'heure, la saison et avec certains facteurs qui produisent le « fading », il faut admettre que la propagation du rayonnement n'est pas aussi simple qu'on pourrait l'imaginer.

Il faut expliquer pourquoi l'émission de Rome, tout à l'heure inaudible, est devenue, depuis le coucher du soleil, plus puissante que celle de la station locale, distante de moins de cent kilomètres... Il faut expliquer pourquoi cette audition n'est pas stable mais, au contraire, varie d'une manière à peu près ininterrompue...

Lorsque ces explications seront fournies, notre rôle ne sera pas fini. Il faudra examiner s'il est possible de remédier à ces défauts de la propagation.

Hypothèses de KenelIy-Heaviside.

Les deux savants Kenelly et Heaviside ont été amenés, chacun de leur côté, à formuler une hypothèse simple que de nombreuses vérifications ont fait admettre aujourd'hui d'une façon à peu près générale. Voici cette hypothèse :

Nous avons succinctement expliqué au chapitre I quelle était la constitution de la matière. Un atome est constitué par un « noyau » autour duquel gravite un essaim d'électrons. La charge électrique positive du noyau équilibre exactement la charge négative des électrons. Ainsi l'atome est électriquement neutre.

Mais que ce système perde un électron ou qu'au contraire il récolte un électron supplémentaire et il cesse d'être un atome pour devenir un « ion », Un ion peut être positivement ou négativement électrisé.

Un gaz est « ionisé » quand certaines molécules qui le composent deviennent des ions. Un gaz ionisé devient, dans une certaine mesure, conducteur de l'électricité...

Causes d'ionisation.

L'hypothèse d'Heaviside est fort plausible. A 200 kilomètres du globe, la pression résiduelle est extraordinairement réduite. Cette condition est favorable à l'ionisation.

Les gaz peuvent devenir ionisés sous l'influence de certains rayonnements : rayons X, rayons ultraviolets, etc... Or, la haute atmosphère reçoit des torrents de rayons ultra-violets que le soleil envoie. Et puis, cet astre envoie aussi probablement des particules électrisées qui peuvent produire l'ionisation.

Conséquences de l'ionisation.

Cette couche de gaz ionisés constitue, en somme, une immense surface conductrice parallèle à la terre. Cette dernière est elle-même une surface conductrice. Lorsqu'un rayon hertzien atteint une surface conductrice dont les dimensions sont grandes par rapport à la longueur d'onde, il est réfléchi, c'est-à-dire qu'il y a un brusque changement de direction.

La réflexion se produit à la surface de séparation de deux corps d'indice optique, ou indice de réfraction différent. C'est ainsi que la surface d'une eau tranquille, bien que parfaitement transparente, réfléchit des rayons lumineux.

Il est difficile d'admettre que la couche d'Heaviside présente, par rapport au milieu environnant, un brusque changement de propriété. Il est probable qu'on passe insensiblement d'un milieu dans un autre.

En d'autres termes, on trouve d'abord un gaz non ionisé, puis faiblement ionisé et, enfin, de plus en plus ionisé. Dans ces conditions il n'y a pas réflexion, mais nous allons reconnaître que le résultat peut cependant être sensiblement le même.

Revenons à une comparaison optique. Que se passe-t-il quand un rayon lumineux traverse un milieu de plus en plus réfringent ?

C'est très simple (fig. 116). Au lieu de se propager en ligne droite (en négligeant l'action du champ de gravitation), le rayon s'infléchit de plus en plus, et, finalement, ce changement de direction équivaut à une réflexion.

Des différences intéressantes peuvent cependant être mises en évidence qui, nous le montreront tout à l'heure, prouvent que nous avons suivi la bonne voie. Un miroir réfléchit à peu près indistinctement les rayons lumineux de toutes les fréquences. On sait qu'aux fréquences différentes des rayons lumineux correspondent des couleurs différentes.

Mais, s'il s'agit de réfraction, ce n'est plus la même histoire.

Supposons que, cette fois (fig. 117)), il s'agisse d'un rayonnement lumineux complexe, formé par la superposition d'un rayon rouge et d'un rayon bleu. Notre œil aura tout simplement la perception d'une lumière violette. Mais les deux rayonnements correspondant à des fréquences différentes ne se comporteront pas de la même manière. L'un d'eux sera renvoyé dans la direction C, l'autre dans la direction D. Le premier atteindra la région B, tandis que l'autre ne dépassera pas A.

Revenons au rayonnement hertzien.

Tout cela nous permet de comprendre comment le rayonnement hertzien, après avoir quitté l'antenne, ne s'en va pas indéfiniment vers les espaces sidéraux. A peine a-t-il quitté notre surface terrestre qu'il rencontre la région ionisée - ou ionosphère - et qu'il est contraint de revenir vers nous. Cette simple observation enlève au rayonnement une part de son mystère. On comprendrait mal que l'on puisse capter, en France, une partie, bien faible sans doute, mais cependant mesurable, de l'énergie rayonnée par la station de Saigon, si le rayonnement pouvait s'évader vers d'autres Univers que le nôtre. En somme, l'énergie rayonnée est canalisée entre la terre et la couche d'Heaviside. Cela doit-il nous enlever l'espoir de pouvoir communiquer, par ce moyen, avec d'autres planètes ? Peut-être, mais ce n'est pas certain. II n'est pas interdit de penser que certaines catégories de rayonnement peuvent franchir l'obstacle.

L'hypothèse nous permet aussi de comprendre pourquoi la propagation diurne diffère si nettement de la propagation nocturne. L'état d'ionisation dépend tout naturellement de l'éclairage, puisqu'au nombre des « agents ionisants » nous avons cité le rayonnement ultra-violet solaire. Ainsi la réfraction pourra se produire pour des ondes courtes et très courtes et elle pourra être tout à fait inappréciable pour des ondes moyennes ou longues.

Rayonnement direct et indirect.

Soit entre un poste d'émission dont l'antenne envoie des rayons hertziens dans toutes les directions (fig. 118). Les rayons qui, comme E D, partent parallèlement à la surface terrestre dans la direction du poste récepteur R, pourront atteindre ce dernier.

Mais l'antenne réceptrice sera aussi frappée par des rayons réfractés comme EI.

Les deux rayonnements vont-ils purement et simplement ajouter leurs effets sur l'antenne réceptrice R ? Ce n'est pas certain. Le rayon ER a parcouru un chemin évidemment plus long que le rayon direct ED. Il arrivera donc avec un certain retard. Retard qu'aucun chronomètre ne pourrait mesurer, tellement il est faible, mais retard cependant dont un croquis très simple peut nous permettre de comprendre l'importance.

Supposons, ce qui n'est certainement pas réalisé, que les deux rayonnements aient des amplitudes égales. Si les chemins parcourus sont égaux, les deux rayonnements sont « en phase » et nous avons quelque chose comme la figure 119.

Pour obtenir le résultat, il nous suffira d'ajouter les amplitudes en chaque point. Nous aurons, par exemple, a+b = c.

Le résultat sera une oscillation d'amplitude double.

Supposons maintenant que le retard, ou différence de phase, soit justement égal à une demi-période. Nous obtiendrons, cette fois, le résultat de la (figure 120). Pour chaque point, les amplitudes seront encore égales, mais elles seront de sens contraire. Au lieu de s'ajouter, elles se retrancheront. Un rayonnement détruira ce que l'autre aura apporté... Leurs actions s'annuleront.

Entre ces deux extrêmes, toutes les combinaisons peuvent naturellement être réalisées. Ce qu'il importe de retenir, c'est que l'addition des deux rayonnements peut annuler complètement toute réception. C'est ainsi qu'on explique le fading. On conçoit fort bien que l'ionisation ne soit pas forcément invariable. Elle est sous la dépendance d'un grand nombre de facteurs variables. Toute modification dans l'ionisation apporte une modification dans le déphasage et fait, par conséquent, varier dans un sens ou dans l'autre l'intensité de réception.

Fading et longueur d'onde.

Les ondes courtes et très courtes ne pénétreront qu'à peine dans la couche ionisée. Elles seront immédiatement renvoyées vers le sol. Leur trajet n'intéressera donc que la zone la plus basse de la couche. On conçoit que les variations dans cette zone puissent être plus accusées et plus rapides. Cela correspond bien aux phénomènes observés.

Réception diurne et réception nocturne.

Pour qu'un rayonnement de longueur d'onde donnée puisse être réfracté et renvoyé vers le sol, il faut une certaine densité d'ionisation minimum qu'on appelle « ionisation critique ». On définit d'ailleurs cette ionisation en déterminant le nombre d'ions par centimètre cube.

Ces conditions ne sont pas réalisées de jour pour les ondes de 200 à 600 mètres. Aussi constate-t-on que le rayonnement indirect est à peu près nul dans la journée.

C'est pourquoi les réceptions à grande distance sont à peu près nulles pour ces gammes de longueur d'onde. Le rayonnement direct, contraint de suivre la surface du sol, rencontre de nombreux obstacles. Aussi n'est-il pas étonnant de constater qu'il ne peut parvenir très loin. Par contre, dans cette zone qui entoure l'émetteur, il n'y a pas de fading.

Les conditions d'ionisation critique sont réalisées de jour pour les ondes inférieures à 30 mètres. C'est pourquoi on observe que les fréquences correspondantes conviennent parfaitement pour les communications diurnes à grande distance.

Fading, distance, zone de silence.

Pour que la réfraction puisse se produire en totalité, il est nécessaire que le rayon hertzien entre dans le milieu ionisé sous un certain angle. Ainsi, un rayon comme EF (fig. 121) pénétrera dans la couche d'Heaviside, sera légèrement dévié, mais pourra cependant traverser cette couche. A peine observera-t-on qu'une faible portion du rayonnement, comme FH, est réfléchie.

Pour que l'effet réfraction puisse se produire totalement, il faut que les rayons soient suffisamment inclinés, comme le rayon EI.

Nous comprenons aussi pourquoi il ne peut y avoir de fading dans la zone EI, puisque le rayonnement indirect ne peut y parvenir. Mais s'il s'agit de fréquences très élevées, correspondant aux ondes courtes et très courtes, le rayonnement direct s'affaiblit très rapidement. On cesse de le percevoir après quelques dizaines de kilomètres. La zone EI constitue donc une zone de silence.

Vérifications directes de la théorie.

Les résultats observés sont donc en parfaite harmonie avec les résultats expliqués par la théorie. Les anomalies apparentes de la propagation du rayonnement s'expliquent très simplement. On a voulu cependant aller plus loin et établir, en quelque sorte, une vérification directe.

Des savants comme Appleton ont imaginé des méthodes qui permettent de connaître à chaque instant la hauteur de la couche et sa densité. Cette méthode, extrêmement ingénieuse, est dite « d'interférence ».

Du point E, on émet des signaux continus dont la longueur d'onde varie continuellement. Au point H, on reçoit ces signaux. On recueille simultanément le signal direct et le signal indirect. Mais il est certain que le signal indirect, ayant suivi le parcours EF H, a mis beaucoup plus de temps que le signal direct qui a suivi le trajet EH. Or, pendant ce temps supplémentaire, la longueur d'onde a changé. Les rayons hertziens qu'on reçoit simultanément n'ont donc pas la même longueur d'onde et interfèrent. De cette interférence, on peut déduire la longueur du parcours, et, par conséquent, la distance EF. On peut aussi déterminer la longueur d'onde critique.

Une autre méthode (Breit et Tuve) consiste à émettre une série de signaux très brefs. On enregistre les signaux au point H. Grâce à la brièveté du signal et à la rapidité de l'enregistreur on note séparément l'arrivée du signal direct et celle du signal réfléchi. Le temps qui s'écoule entre les deux permet de déterminer le chemin parcouru pendant l'intervalle et, par conséquent, la distance du sol à la couche ionisée.

Complément d'hypothèse.

Ces méthodes de vérification ont mis d'autres phénomènes en évidence. C'est ainsi qu'avec la méthode des signaux brefs, on perçoit parfois non seulement le premier écho, correspondant au parcours EFH, mais deux, trois, etc..., signaux successifs. Certains correspondent à des réflexions successives entre le sol et la couche ionisée. D'autres ne peuvent s'expliquer ainsi. On a été amené à supposer l'existence d'autres couches ionisées, situées à une distance plus grande du sol (couche d'Appleton).

Nous sortirions du cadre de cet ouvrage en entrant dans d'autres détails. Pour certains faits de la propagation, nous renvoyons nos lecteurs à l'ouvrage de vulgarisation que nous avons écrit sur ce sujet (« Ondes courtes et ondes très courtes », par Lucien Chrétien. E. Chiron, éditeur).

Dans l'histoire de la propagation, certains faits semblent bien définitivement acquis. Maïs cela ne veut pas dire que plus rien de mystérieux ne subsiste.

Certains faits curieux, comme l'intermodulation des émissions dans la couche d'Heaviside (effet Luxembourg, effet Droitwich) sont observés depuis peu. Sans doute pourra-t-on, au prix de légères modifications, faire entrer ces nouveaux faits dans le cadre de la théorie que nous venons d'exposer.

Antennes antifading.

Revenons à des considérations plus immédiatement pratiques. Puisque nous savons la cause et le mécanisme du « fading », nous pouvons nous demander s'il n'est pas possible d'y trouver un remède ou, tout au moins, d'en atténuer les manifestations.

Puisque le « fading » est produit par l'interférence des deux rayonnements, il semble que nous aurons la clé du problème si nous pouvons supprimer un de ces rayonnements.

C'est ce qu'on cherche à obtenir par l'emploi des antennes « antifading » Celles-ci sont construites de telle façon que le maximum de puissance rayonnée soit projeté horizontalement. En somme, on cherche à atténuer autant qu'il se peut les composantes comme EI (fig. 121) pour renforcer les composantes comme ED.

Une antenne antifading est tout simplement constituée par un conducteur vertical, d'une longueur déterminée par la longueur d'onde du rayonnement. Ce fil est généralement tendu dans l'axe d'un pylône en bois.

Les résultats de ce type d'antenne sont excellents. La réception est généralement améliorée dans les zones qui avoisinent la station. Le fading est nettement diminué dans cette zone. A grande distance, il semble, au contraire, que la réception soit plus mauvaise.

Cela confirme d'ailleurs les vues théoriques ; c'est évidemment le rayonnement indirect seul qui peut parvenir à grande distance de l'émetteur.

Mais si le « fading » est atténué, cela ne veut nullement dire qu'il soit supprimé. En dehors de ce moyen, on n'en voit pas d'autres. Il faut en prendre son parti et examiner si l'on peut neutraliser au récepteur les effets de ces variations continuelles d'intensité.


CHAPITRE DIXIEME

LES REGULATEURS ANTIFADING

Importance du problème.

Avant d'aller plus loin, essayons d'évaluer l'importance du problème. Nous saurons ainsi si la complication de certaines solutions est admissible.

Le but principal de la Radiophonie est la reproduction de la musique. La sensation musicale est très complexe. Elle fait intervenir le timbre, la hauteur et, aussi, l'intensité relative des sons. Le plus magnifique chef-d'œuvre de la musique perdrait tout son charme si les exécutants ne respectaient point les nuances. Si tout, du commencement à la fin, était joué avec une intensité uniforme... que deviendrait l'impression musicale ?

Le compositeur a voulu que tel frémissement du violon évoque un soupir du vent dans le feuillage ; il a écrit « pianissimo ». Par contre, l'arrivée du personnage diabolique est ponctuée par un coup de tonnerre et si le coup de tonnerre devient un lointain murmure, le compositeur sera trahi. Ce que le haut-parleur reconstituera chez nous ne pourra être confondu avec l'œuvre jouée devant le microphone.

Pourtant, c'est là ce que peut produire le « fading»...

Le problème nous apparaît donc clairement, sans qu'il soit nécessaire d'insister davantage : atténuer grandement, sinon supprimer les conséquences du fading, ou bien renoncer à écouter des concerts d'autres stations que les stations locales...

Régulateur automatique de sensibilité.

Nous sommes maîtres de modifier à notre gré la sensibilité d'un récepteur. Si nous recevons trop faiblement une certaine station, il nous suffira d'augmenter la sensibilité pour que la puissance de réception soit elle-même augmentée. Cette remarque a l'air d'une évidence. Sans doute, mais elle permet de comprendre le fonctionnement des régulateurs antî-fading...

A toute variation d'amplitude de la station écoutée, il suffit d'opposer une variation de sens contraire dans l'amplification du récepteur. Ainsi les inconvénients du fading se trouveront, sinon supprimés, tout au moins fortement atténués. Nous verrons par la suite qu'en fait, avec certains montages bien étudiés, le fading se trouve pratiquement supprimé.

La première idée des régulateurs automatiques de sensibilité est due, en France, à M. de Bellecize. Le principe était le suivant :

Presque simultanément, je décrivais un système n'utilisant pas de relais. Les variations de tension produites dans le circuit de la détectrice étaient directement transmises aux lampes amplificatrices dans le but de modifier dans le sens convenable le « gain » de chaque étage.

Cette idée - couverte par un brevet - était féconde puisqu'on peut dire que 98% des récepteurs actuels utilisent ce système ou un système directement inspiré de celui-ci, décrit avec précision dans le brevet original.

Principe des régulateurs actuellement utilisés.

Imaginons (fig. 122) un récepteur très simplifié qui comporte un étage d'amplification à haute fréquence par lampe à pente variable et une détection par diode... Pour l'instant, l'antenne ne reçoit aucun signal.

La diode produit dans la résistance Rd une chute de tension qui est de l'ordre de 0,5 volt. La résistance Rf sera réglée de telle sorte que la lampe à haute fréquence soit au maximum de sensibilité. La polarisation correspondante est de l'ordre de 2 à 2,5 volts. Cela veut dire que Rp sera déterminée pour que la tension aux bornes soit de l'ordre de 1,5 à 2 volts.

Supposons maintenant que des oscillations à haute fréquence soient soumises à l'appareil.

Les tensions amplifiées redressées par la diode provoqueront un courant dans la résistance Rrf. Ce courant détecté pourra être considéré comme le courant de modulation auquel on a superposé un courant continu.

L'ensemble RC constituera un filtre destiné à éliminer la composante variable — l'ensemble R2 C2, qui n'est d'ailleurs pas indispensable, concourt au même but.

La tension continue de détection est donc finalement appliquée sur la grille de la lampe amplificatrice. Comme il s'agit d'un tube à pente variable, cette polarisation se traduit par une diminution de l'amplification. On saisit donc le mécanisme de la régulation.

La réduction de sensibilité sera d'autant plus élevée que l'intensité des signaux reçus sera elle-même plus grande. C'est bien ce qu'il s'agissait d'obtenir en définitive.

Courbe de la régulation.

Entre certaines limites, il est évident que dans un récepteur sans régulation, la tension recueillie au détecteur est proportionnelle à la tension d'entrée. Si l'on porte sur une ligne horizontale les tensions recueillies par le collecteur d'onde et sur une ligne verticale les tensions recueillies à la détection ou, ce qui revient au même, la puissance acoustique pour une profondeur de modulation donnée, la caractéristique sera une droite.

Mais les tensions d'entrée peuvent varier dans des limites considérables. Pour un émetteur local, il n'est pas rare de recueillir une tension de plusieurs volts. Une station lointaine donnerait quelques microvolts, c'est-à-dire quelques millionièmes de volt. Entre ces deux extrêmes, il y a donc le même rapport qu'entre un et un million.

Comment, dans ces conditions, pouvoir tracer une courbe d'ensemble ? Si nous représentons par 1 millimètre (ce qui est bien peu) la tension fournie par la station lointaine, îl nous faudra prévoir un million de millimètres pour la station locale..., c'est-à-dire tout simplement 1 kilomètre ! Pour tourner la difficulté, on se sert d'ordonnées logarithmiques.

Cela veut dire que la longueur prévue entre 1 et 10 sera la même qu'entre 10 et 100, qui sera, à son tour, la même qu'entre 100 et 1.000.

Il sera intéressant d'utiliser une échelle semblable pour figurer les tensions recueillies.

Nous sommes maintenant à même de tracer la courbe donnant les tensions recueillies à la détection en fonction des tensions captées par le collecteur d'onde. Si nous traçons la caractéristique d'un récepteur sans régulation, nous obtenons la courbe I, pour un appareil de grande sensibilité, comportant, par exemple :

On peut admettre qu'une tension BF de 4 volts est convenable. Il y correspond la ligne pointillée. Bien entendu, on peut soumettre à la détection une tension plus élevée - le potentiomètre de puissance permettra de n'appliquer à la grille de la lampe BF qu'une tension réduite, n'assurant aucune surcharge à la dernière lampe.

Au récepteur sans régulation correspond la courbe I (fig. 123), On voit que le récepteur est très rapidement surchargé et que, dans ce cas, un réglage manuel de sensibilité est absolument indispensable.

La courbe II est relative au même récepteur, mais dans lequel on a fait agir la régulation sur la première lampe. La situation apparaît immédiatement meilleure.

La surcharge demeure admissible, tout au moins en apparence. Pratiquement, une distorsion importante sera produite au delà d'une certaine tension. Si l'on prend la tension 16 comme maximum permis, il faut atteindre des tensions d'entrée qui dépassent 100 fois la tension minima pour que cette occurence se produise.

La courbe III correspond au même système de régulation, mais, cette fois, l'action régulatrice est appliquée sur la lampe d'entrée et sur la lampe changeuse de fréquence. Il faut, cette fois, une tension d'entrée 1.000 fois plus élevée que la tension minima pour que se produise la tension limite.

Enfin, la courbe IV, pour laquelle la régulation est encore meilleure, correspond à l'action sur trois lampes (HFmod. et MF).

Régulation amplifiée.

Il est certain que la caractéristique idéale correspond à une ligne parfaitement horizontale. Cela voudrait dire que la tension soumise à la détection est indépendante de la tension d'entrée. La courbe IV se rapproche beaucoup plus de cet idéal que les courbes I ou II. Il est toutefois possible de faire mieux encore. Pour cela il faut faire appel à la régulation amplifiée. Au lieu d'utiliser directement la tension continue recueillie aux bornes de la résistance Rd, on pourra amplifier cette tension au moyen d'une lampe. A une tension disponible de 1 volt aux bornes de ~Rd, on pourra faire correspondre, par exemple, une tension de régulation de 20 volts. Nous donnons, (figure 124, un exemple d'antifading amplifié.

La tension continue disponible aux bornes de la résistance Rd est appliquée entre grille et cathode de la lampe amplificatrice.

La cathode de cette lampe est reliée à un point présentant une tension négative d'environ 100 volts par rapport au châssis.

Si donc, aucun courant ne traversait cette résistance, une tension de polarisation dé 100 volts existerait entre R et le châssis et serait, par conséquent, appliquée aux lampes amplificatrices.

Mais la résistance R2 est traversée par le courant anodique de A. Si ce courant est de 5 milliampères (0,005 A.) et si R2 mesure 20.000 ohms, la tension du point P par rapport à la masse est de :

100 - (0,005 x 20.000) = 0 volt.

C'est-à-dire qu'aucune tension n'existe entre le point R et la masse et que les lampes sont au maximum de sensibilité.

Si maintenant des oscillations sont soumises à la détection, on observera une première tension continue aux bornes de Rd, tension qui est déjà transmise vers

R. Cette même tension, appliquée entre grille et cathode de A, aura pour effet de diminuer le courant anodique. Celui-ci était de 0,005 A. — il sera, par exemple de 0,0045 A. La tension aux bornes de R2 ne sera plus que de :

20.000 x 0,0045 = 90 volts.

C'est dire qu'une tension négative supplémentaire de 10 volts va apparaître entre R et la masse.

La courbe V (fig. 123) est relevée par un système identique au schéma figure 124.

Autre système.

Un autre système, figure 125, donne peut-être un peu plus simplement des résultats équivalents.

On utilise une lampe montée en détection plaque. Il faut encore disposer d'une tension négative d'environ 100 volts par rapport au châssis. Cette tension constitue la tension anodique de la lampe A.

La polarisation (une dizaine de volts, par exemple) existant entre cathode et grille est réglée de telle sorte que le courant anodique soit exactement annulé.

Comme aucun courant ne traverse la résistance R 2, il est évident que le point R est à la tension du châssis et que, dans ces conditions, les lampes sont au maximum de sensibilité.

Les tensions à haute fréquence disponibles dans le circuit anodîque de la lampe HF sont transmises à la grille de la lampe régulatrice à travers le condensateur C.

Dès qu'une tension est transmise, elle déclanche l'apparition d'un courant anodique dans la résistance R2. C'est donc, en définitive, une tension de régulation qui apparaît en R.

On peut considérer une détection plaque comme une détection diode précédée par un étage d'amplification à haute fréquence. D'autre part, on peut prélever la tension à haute fréquence'aux bornes du primaire où l'amplification disponible est notoirement plus grande qu'au secondaire.

Dans ces conditions, la tension régulatrice est du même ordre de grandeur qu'avec le système représenté figure 124.

Régulation différée.

Nous pouvons admettre qu'une tension de 4 volts à la détection est nécessaire pour l'utilisation de l'amplificateur. L/examen des courbes IV et V nous indique que cette tension n'est atteinte que pour un signal correspondant à plus de 20 fois le'minimum dans le premier cas et plus de 100 fois dans le second cas.

Ainsi donc l'appareil pourra sembler manquer de sensibilité ou, tout au moins, de puissance. Cet effet sera d'autant plus net que l'efficacité de la régulation sera plus grande. C'est pour éviter ce défaut qu'on a imaginé le principe de la régulation différée.

Le régulateur n'entre en action que lorsque la régulation soumise à la détection atteint le niveau choisi pour la meilleure utilisation de l'amplificateur de puissance. Tout se passe donc au début comme s'il n'y avait pas de régulation. Puis, dès que la tension voulue est atteinte, le régulateur entre en jeu. Un système de régulation amplifié et différé donnera donc une courbe de régulation comme celle que nous avons indiquée figure 126.

Cette courbe est relative à l'action d'un régulateur amplifié sur une seule lampe. Si on le fait agir sur trois lampes, on obtient la courbe II (fig. 126) qu'on peut considérer comme à peu près parfaite.

Pour obtenir la régulation différée, on utilise un élément diode différent de l'élément qui sert à la détection usuelle.

On applique sur ce diode auxiliaire une tension négative fixe (fig. 127), soit, par exemple, 4 volts.

Une diode ne commence à se laisser traverser par un courant que pour une tension négative de 0,5 volt environ entre cathode et plaque. Comme la tension est de 4 volts, il ne peut y avoir de courant. Celui-ci ne pourra commencer à se produire que pour une tension transmise à travers C d'une amplitude au moins égale à 4 — 0,5 = 3,5 volts.

Tant que l'amplitude des oscillations HF sera inférieure à 3,5 volts, il n'y aura donc point de régulation. C'est précisément ce que l'on voulait obtenir.

Avec le schéma de la figure 125, c'est beaucoup plus simple. Il suffit d'appliquer à la lampe A une tension de polarisation plus grande qu'il n'est nécessaire pour que le courant anodique soit annulé. Le supplément de tension ainsi appliqué représente précisément le « retard » à la régulation.

Considérations sur les polarisations.

Lorsque la réduction d'amplification est obtenue en agissant sur trois lampes, la tension de polarisation appliquée sur chaque lampe est naturellement beaucoup plus réduite. On peut aussi augmenter l'efficacité du système régulateur en employant une lampe à faible recul de grille.

Toutefois, il est des conditions qu'on doit nécessairement respecter sous peine de voir apparaître des phénomènes fort gênants.

Il est nécessaire, par exemple, que la tension de polarisation de la première lampe soit au moins égale à la tension haute fréquence recueillie par le collecteur d'onde. Or, si la régulation est appliquée sur trois lampes, il est possible qu'une réduction suffisante de l'amplification du récepteur soit atteinte avec une très faible polarisation.

D'autre part, si l'on réduit l'amplification à partir du changement de fréquence, on observe une très nette diminution du souffle ou bruit de fond. Il y aurait donc intérêt à utiliser aussi de ce côté le maximum de régulation.

Ces quelques considérations suffiront sans doute à montrer à nos lecteurs que le problème est complexe et que le technicien doit envisager les différentes conséquences avant de prendre une décision.

Constante de temps.

Supposons que le récepteur correspondant à la figure 124 soit réglé sur la longueur d'onde d'un émetteur qui n'est pas en fonctionnement. Dans ces conditions, le récepteur est au maximum de sensibilité. L'émetteur se met en fonctionnement. La sensibilité du récepteur va automatiquement changer, mais ce changement ne sera pas instantané.

La charge ou la décharge d'un condensateur à travers une résistance n'est pas un phénomène instantané. L'opération demande un temps d'autant plus long que la capacité et la résistance ont des valeurs plus élevées.

Le nouvel équilibre de fonctionnement du régulateur sera atteint lorsque la charge des condensateurs Cl, C2 et C3 (fig. 124) sera elle-même équilibrée.

Or, cette charge se produit à travers des résistances élevées Rd, R1 et R3. Il y faut donc un temps très appréciable.

Si les variations d'intensité causées par le fading sont très rapides, il est à craindre que la régulation ne puisse suivre et appliquer la correction destinée à maintenir la tension constante.

Dans un régulateur comme celui de la figure 9, certaines valeurs de résistances sont imposées par les circonstances, ainsi que la grandeur de certaines capacités. Il est impossible, par conséquent, de réduire la constante de temps au delà de certaines limites. Cela peut avoir des inconvénients sérieux pour la réception des ondes très courtes. Dans ce dernier cas les variations d'intensité dues au « fading » sont parfois extrêmement rapides.

Le schéma de la figure 125 permet d'obtenir une constante de temps beaucoup plus réduite; une latitude beaucoup plus grande existe, en effet, dans le choix des résistances.

Cependant, il faut se garder d'aller trop loin dans cette voie, sinon on risquerait d'introduire des causes de distorsion, en particulier dans les fréquences graves.

Réglage silencieux.

Imaginons un récepteur très sensible muni d'un régulateur automatique, qui est réglé sur une station en fonctionnement. Supposons que l'on veuille maintenant écouter une autre station. On déplacera l'index des condensateurs variables. Le récepteur n'étant plus réglé sur une onde porteuse se placera au maximum de sensibilité. Or, dans le voisinage, il y a toujours des perturbations électriques industrielles ou atmosphériques. Ces parasites vont être considérablement amplifiés et le haut-parleur fera un bruit épouvantable. Ce sera fort désagréable pour l'usager. La régulation ne peut guère intervenir pour réduire l'amplitude des perturbations. En effet, celles-ci ne correspondent pas à une onde porteuse, mais à une succession irrégulière de chocs très brusques et très violents.

Pour éviter cet inconvénient, on a imaginé les dispositifs à réglage silencieux.

En l'absence d'une onde porteuse d'amplitude suffisante, une lampe est chargée de paralyser l'amplificateur de puissance.

Celui-ci n'est libéré qu'au moment où une onde porteuse d'une amplitude suffisante est reçue. A ce moment, le bruit des parasites se trouve naturellement fortement atténué, sinon complètement supprimé.

Ce système est surtout séduisant en théorie. En pratique, il n'est pas sans inconvénients graves. Ces inconvénients sont tels que de nombreux constructeurs ont préféré renoncer aux avantages.

D'autres systèmes ont été imaginés, comme, par exemple, l'emploi d'un relais, mais, jusqu'ici, ils n'ont guère reçu que des applications pratiques très limitées.

Contrôleur de résonance, de synthonie ou d'accord.

Il est important que le récepteur soit réglé très exactement sur l'accord qui correspond à la station qu'on veut entendre. Un désaccord, même très léger, produit des déformations et peut augmenter considérablement les brouillages.

Un contrôle vïsuel d'acord permet à l'usager de savoir si le réglage correspond à la résonance exacte des circuits.

Le dispositif est un simple milliampèremètre intercalé dans le circuit anodique d'une lampe contrôlée par le régulateur. La résonance précise correspond naturellement au maximum d'action du régulateur, c'est-à-dire, au maximum de polarisation sur la lampe et, par conséquent, la déviation minimum de l'appareil demeure.

Les constructeurs évitent généralement de donner au milliampèremètre la forme classique d'un appareil de mesure. C'est généralement une aiguille qui porte une ombre sur le cadran ou une zone colorée qui se déplace.

Contrôle par tube à néon.

Un autre système moins précis consiste à utiliser la lueur d'un tube à néon. On sait que l'illumination dépend de la tension appliquée. On utilise encore le fait que le courant anodique des lampes contrôlées est minimum à la résonance. Si une résistance est intercalée dans le circuit, la tension appliquée à la plaque sera maximum et, par conséquent, la lueur du tube sera au maximum de brillance.


QUELQUES PUBS