Foire aux questions - Les réponses
La radioactivité et ses usages
Que sont les radioactivités bêta
et gamma ?
La radioactivité bêta est la transformation, au sein d’un
noyau, d'un neutron en proton (bêta- : neutron → proton + électron
+ antineutrino) ou d'un proton en neutron (bêta+ : proton → neutron
+ positon + neutrino). Cette transformation se fait par interaction
faible et en allant vers des noyaux de plus en plus légers car
les systèmes évoluent toujours vers l'énergie
minimale.
Exemples :
- bêta- : fluor 21 (9p, 12n) → néon
21 (10p, 11n) + électron
+ antineutrino
- bêta+ : sodium 21 (11p, 10n) → néon
21 (10p, 11n) + positon + neutrino
Pour l'équilibre
des charges, on a :
- charge + : proton et positon
;
- charge - : électron ;
- pas de charge : neutron,
neutrino, antineutrino.
La radioactivité bêta- correspond à l'émission
d'un électron de charge négative, tandis que la radioactivité bêta+ correspond à l'émission d'un positon de charge positive.
Pour les masses : neutron et proton ont des masses voisines ; l'électron
et le positon qui est son antiparticule ont exactement la même
masse qui est 2000 fois plus faible que celle du neutron ou du proton
; le neutrino et l'antineutrino qui est son antiparticule ont une masse
nulle ou très petite.
La radioactivité gamma se produit quand un noyau est "excité",
c'est-à-dire qu'il a plus d'énergie que dans son état
normal dit "fondamental". Cela arrive par exemple après
la radioactivité bêta. Dans les exemples cités,
le néon 21 va émettre des gamma avant d'atteindre son état
de plus faible énergie. Le rayonnement gamma n'est pas de même
nature que le rayonnement bêta : il s'agit d'une onde électromagnétique
de même nature que la lumière ou les rayons X, mais dont
l’énergie est encore plus grande que celle des rayons
X.
thibault@csnsm.in2p3.fr, 13 mars 2002
Quelles sont les durées de vie des émetteurs bêta+
?
Les durées de vie des émetteurs bêta+,
comme celles des émetteurs bêta-, sont variables.
Elles dépendent
de l'énergie libérée par la désintégration.
Plus cette énergie est grande, plus le noyau se désintègre
vite.
thibault@csnsm.in2p3.fr, 27 mai 2002
Pourquoi parle-t-on de
proton "instable" ?
Le proton est le plus léger des "baryons" (les baryons
ont un nombre baryonique non nul) et il est le seul à être
stable. Le neutron notamment qui est légèrement plus
massif se désintègre en proton. Mais certaines théories
conduisent à penser que le proton pourrait se transformer en
des particules non baryoniques, comme une paire électron-positon,
avec une probabilité extrêmement faible. Cependant, les
expériences ont montré que sa demi-vie est supérieure à la
valeur prédite (1031 ans).
thibault@csnsm.in2p3.fr, 27 mai 2002
Quelles sont les méthodes de production de l’azote
15 ? Quels sont les modes de production d'atomes enrichis, et en
particulier que se passe-t-il au niveau du noyau ?
L'azote 15 est un isotope stable qui existe dans la nature. Mais il
est très peu abondant puisqu'il ne représente que 0,366
% de l'azote "naturel", les 99,634 % restants étant
de l'azote 14. Il n'y a donc pas à fabriquer cet isotope, mais "seulement" à le
séparer de l'azote 14. Cette séparation peut être
réalisée par des procédés physiques ou
chimiques comme la diffusion gazeuse (la vitesse de diffusion dépend
de la masse atomique), la diffusion thermique, la centrifugation, la
chromatographie gazeuse… Cependant, comme la séparation
n'est jamais parfaite, surtout si l’on part d'un pourcentage
très faible, on dit alors que l’on "enrichit" seulement
le mélange. On parle d'enrichissement quand on modifie les quantités
relatives de deux isotopes dans un mélange. Il ne s'agit en
aucune façon de modifier des noyaux par des réactions
nucléaires.
Nous ne savons pas quelle est la méthode utilisée pour
obtenir de façon "industrielle" de l'azote 15. Il
est probable que les contraintes économiques imposent leurs
lois. Voici cependant une solution possible !
L'élément principal du "séparateur isotopique" est
un champ magnétique dans lequel les ions décrivent un
arc de cercle dont le rayon est proportionnel à leur masse.
La technique consiste donc à ioniser l'azote "naturel" sous
forme d'ions N+, à accélérer ces ions avec un
champ électrique (N14+ et N15+ sont accélérés
de la même façon et ils ont donc la même vitesse
v), puis à les faire passer dans un champ magnétique
: ils auront alors des trajectoires différentes (rayon de courbure
de la trajectoire = mv/qB, où v/qB est le même pour les
2 isotopes). On a q = 1 et on choisit v/B pour que la différence
entre les rayons de courbure soit de plusieurs centimètres.
Il suffit alors de recueillir ces deux types d’ions dans deux
enceintes séparées. Si le dispositif est "idéal",
l'efficacité de séparation est de 100 %, ce qui n'est évidemment
jamais le cas. Il s'agit en définitive d'une méthode
analogue à celle utilisée pour analyser une expérience
de "spectrométrie de masse".
thibault@csnsm.in2p3.fr, porquet@csnsm.in2p3.fr, 21 février
2002
En quoi les techniques
de protonthérapie et d’hadronthérapie
sont-elles différentes ?
On distingue la protonthérapie qui utilise des protons d'énergie
200-250 MeV (en France : Centre de protonthérapie d’Orsay
et Centre Antoine Lacassagne de Nice) et l'hadronthérapie qui
utilise des ions carbone de 400 MeV/u (projet de Lyon en France, KFZ/GSI
en Allemagne, Tera en Italie, Himac au Japon).
laune@ipno.in2p3.fr, 7 janvier 2002
La méthode de datation à l'aide du carbone 14 est-elle
une méthode de référence ? Avec toutes les corrections
que l'on pratique sur les résultats, est-elle suffisamment fiable
ou préfère-t-on utiliser plusieurs méthodes différentes
pour arriver à un résultat plus juste ?
La datation au carbone 14 est une méthode de référence
et surtout, elle permet très souvent de réaliser des
datations là où il n'y a pas d'autres méthodes.
Pour que cette méthode soit sensible et précise, on utilise
aujourd’hui la technique dite de Séparation de Masse par
Accélérateur (SMA en français, AMS en anglais)
pour mesurer le rapport isotopique carbone12 - carbone14.
La mesure du rapport isotopique carbone12 - carbone14 actuel et sa
comparaison à celui
de l'atmosphère à l'époque de la mort de l'organisme
auquel on s'intéresse permettent de déterminer le nombre
d'années écoulées depuis cette mort.
Si le rapport carbone12 - carbone14 de l'atmosphère était
constant, le problème serait très simple. Malheureusement,
ce rapport isotopique n'a pas été et n'est pas constant
en fonction du temps. Dans le passé auquel on s'intéresse,
ce rapport a fluctué lentement en fonction des fluctuations
d'intensité du rayonnement cosmique car c’est ce dernier
qui produit le carbone14 lors de son interaction avec l'atmosphère.
Il a donc fallu étalonner la méthode à l’aide
de cas pour lesquels on disposait d'autres méthodes de datation.
Mais maintenant que cet étalonnage est fait, c'est une méthode
très sure. Malgré tout, comme pour toute mesure délicate
en physique, si l’on dispose de deux méthodes de mesures
différentes, il est préférable de les utiliser
toutes les deux pour s'assurer qu'elles donnent des résultats
concordants, voire d’en utiliser une troisième si les
résultats des deux premières ne concordent pas !
thibault@csnsm.in2p3.fr, 30 mai 2002
Quel est l'effet d'un
proton arrivant sur une molécule du
vivant ? Est-ce le même qu'avec une autre particule chargée
? L'ionisation d'un atome par une particule chargée peut-elle être
expliquée par une loi simple ?
Pour arracher un électron à un atome ou à une
molécule, il faut lui fournir de l'énergie. La plus petite énergie
nécessaire s'appelle l'énergie de liaison de l'électron.
Elle vaut par exemple 13,6 eV pour l'électron de l'atome d'hydrogène.
La vitesse orbitale d'un électron est en rapport avec son énergie
de liaison : plus l’énergie de liaison est grande, plus
la vitesse orbitale est grande. Cependant, dans la matière biologique,
constituée surtout d'hydrogène, de carbone, d’azote
et d’oxygène (des atomes dits légers), les vitesses
orbitales sont assez faibles pour que l'on puisse considérer
les électrons comme immobiles quand ils interagissent avec des
projectiles de plusieurs centaines de MeV par nucléon, comme
c’est le cas de ceux utilisés en hadronthérapie
(par exemple les ions C du projet Etoile auront une énergie
maximale de 400 MeV par nucléon, soit une énergie
effective de 400×12 = 4,8 TeV).
Quand un projectile chargé rapide (par exemple un ion C nu de
charge + 6) passe à proximité d'un électron,
il va y avoir un transfert d'énergie du projectile vers l'électron
et c'est bien sûr la force de Coulomb qui en est responsable.
Pour le projectile, la perte d'énergie est infime, mais pour
le système atome-électron, c'est ce transfert d'énergie
qui va provoquer l'ionisation, si naturellement il est supérieur à l'énergie
de liaison. Dans cette collision, les deux objets n'ont pas besoin
de se toucher (contrairement au cas d'une boule de pétanque
heurtant un cochonnet) car ils interagissent par la force de Coulomb
qu'ils exercent l'un sur l'autre. On dit que c'est une force à longue
portée bien qu'elle décroisse comme le carré de
la distance entre les deux objets (il y a par exemple des forces nucléaires,
dites à courte portée, qui décroissent exponentiellement
avec la distance).
Tout ceci permet de comprendre que l'énergie transférée
au cours de la collision dépend :
-
de la distance à laquelle
le projectile "frôle" l'électron
On appelle
paramètre d'impact le minimum de cette distance si
on considère que la trajectoire du projectile est une ligne
droite (c'est-à-dire que le projectile n'est pas dévié du
tout). Les collisions à plus grand paramètre d'impact
ont une probabilité plus grande d’advenir, mais elles
provoquent un plus petit transfert d'énergie. Il y a donc
un paramètre d'impact maximum pour arracher l'électron.
-
de
la charge du projectile
Plus celle-ci est grande, plus la force
est importante. À vitesse égale, un ion lourd est
donc plus efficace pour ioniser qu'un proton.
-
de la durée de la collision
Pour un projectile
et un paramètre
d'impact donnés, le transfert d'énergie dépend
de la vitesse du projectile. Plus l'ion est rapide, plus la durée
de la collision est faible, moins la force de Coulomb agit longtemps
et moins le transfert d'énergie est important.
Quand le projectile
pénètre dans la matière, il
provoque un nombre énorme de tels petits transferts qui peu à peu
le ralentissent, jusqu'à l'arrêt. À une vitesse
donnée, on définit la quantité (dE/dx), où dE
est la perte d'énergie du projectile sur la distance dx. Cette
quantité est donc la perte d'énergie par unité de
longueur. Elle a la dimension d'une force et est en réalité une
force de frottement. On l'appelle aussi le pouvoir d'arrêt du
matériau traversé par le projectile.
Comme cela vient d’être vu, les transferts d'énergie
diminuent quand la vitesse augmente. On utilise cette propriété en
hadronthérapie en envoyant des projectiles très rapides
qui peuvent traverser les régions saines (et se ralentir quand
même) sans trop les ioniser, avant d'atteindre la région
plus profonde que l’on veut traiter, où ils provoquent
beaucoup d'ionisation. Comme en fait l'ionisation va décroître à nouveau
quand le projectile sera presque arrêté (ce qui n'est
pas expliqué ici), elle va passer par un maximum assez pointu
: cela constitue ce que l'on appelle le pic de Bragg. On choisira donc
l'énergie des projectiles incidents de manière à ce
que le pic de Bragg corresponde à la région à traiter.
(autre réponse traitant du pic de Bragg)
j-c.poizat@ipnl.in2p3.fr, 29 janvier 2003
Pourquoi les cellules
cancéreuses sont-elles plus sensibles
aux rayonnements utilisés en radiothérapie que des cellules "normales" ?
Outre d’être cancéreuses, les cellules cancéreuses
ont aussi un disfonctionnement de leurs processus de réparation
des cassures d’ADN simple brin (lorsqu'un seul brin de la double
hélice d'ADN est endommagé par le rayonnement ionisant).
En conséquence, les cellules saines "réparent" leurs
dommages d'irradiation plus efficacement et plus rapidement (en quelques
minutes ou quelques heures) que les cellules cancéreuses, lesquelles
ont de fortes chances de ne pas survivre aux mêmes dommages d’irradiation.
Robert Kirsch, 11 février 2003
Que se passe-t-il si l'on
met deux sources de radioactivité bêta,
l'une bêta+ et l'autre bêta-, à proximité l'une
de l'autre en les choisissant avec une forte activité ? Les
particules et leurs antiparticules que l'une et l'autre émettent
ne devraient-elle pas s'annihiler, produisant ainsi de l'énergie
(d'autant que l'on pourrait s'attendre à avoir une probabilité de
rencontres élevée du fait de l'attraction due à l'opposition
des charges ?) ?
Les 2 principaux problèmes sont :
1) Les électrons et les positons émis par les radioactivités
bêta n’ayant pas tous la même énergie (la
distribution de ces énergies allant de 0 jusqu'à une
valeur maximale qui dépend de l'isotope), il est difficile de
les focaliser sur un même point de rencontre et leur probabilité d'annihilation
est donc faible. De plus, étant animés de grandes vitesses
(souvent proches de celle de la lumière), l'attraction entre
charges électriques opposées n'apporte aucune aide.
2) Les sources radioactives bêta+ intenses ne peuvent
pas être
naturelles. En effet, une source naturelle (ex. le potassium 40) a
nécessairement une durée de vie est très longue
(sinon il n'y en aurait plus sur Terre) et une activité très
faible. Si l’on veut une activité intense sans avoir des
tonnes de matière, alors il faut une durée de vie courte
(ex. quelques heures pour les isotopes utilisés en tomographie
par émission de positons ou 2 ans pour le sodium 22 utilisé au
Cern comme source de positons) et dans ce cas, il faut d'abord dépenser
de l'énergie pour les fabriquer.
thibault@csnsm.in2p3.fr, 19 février 2003
Pourquoi les méthodes regroupées sous le terme de "radiothérapie" perdent-elles
en importance ? Le projet "Etoile" concerne-t-il le cancer
et signifie-t-il un "retour" à ce type de traitement
?
Le terme de "radiothérapie" est relativement ancien
; il regroupe les méthodes d'irradiation externe par des sources
intenses, notamment les rayons gamma ("bombe au cobalt"),
et inclut probablement les méthodes d'irradiation interne par
administration de radio-isotopes à courte durée de vie
se fixant sélectivement sur certains organes (dont les organes à irradier).
Cependant, les rayons gamma traversant le corps entier, la seule maîtrise
de ce type de radiothérapie consiste à limiter la zone
du corps irradiée à l’aide d’écrans
de plomb ne laissant apparente que la zone à traiter. Toute
l'épaisseur de cette zone, c’est-à-dire aussi bien
des organes sains que des organes malades, est alors soumise au même
taux d’irradiation. Aujourd’hui, cette radiothérapie
se pratique sûrement beaucoup moins que la chimiothérapie.
En revanche, les centres de thérapie par faisceaux de particules
ionisantes sont appelés à un développement dans
le futur. C’est le cas de la protonthérapie à Orsay
et de l’hadronthérapie expérimentale en Allemagne à GSI
(ainsi qu’un projet à Heidelberg), au Japon (à Chiba),
aux USA (LBL Berkeley) et en France (projet Etoile à Lyon).
Les termes de "protonthérapie" (avec des protons)
ou "hadronthérapie" (avec des hadrons : par exemple
des atomes de carbone) sont utilisés pour distinguer ce type
de traitement de la "radiothérapie" classique. Les
faisceaux de particules sont contrôlés en énergie
(profondeur), position, dose et volume irradié, ce qui explique
que ces traitements sont réservés actuellement aux cas
de cancers bien localisés et situés dans des régions
difficilement accessibles ou contre-indiquées pour la chirurgie.
Sur les 140 patients (tous volontaires) traités à ce
jour à GSI, la survie sans récidive à 1 an a été de
94 % pour les 45 premiers patients.
kirsch@ipnl.in2p3.fr, 5 mars 2003
Où peut-on trouver des informations sur les derniers éléments
découverts ces dernières années : les méthodes
utilisées pour les obtenir, leurs propriétés physico-chimiques
ainsi que leur possible avenir industriel ?
Il est possible de consulter le site d'une conférence sur la
physique et la chimie des éléments transactinides qui
aura lieu en novembre 2003 en Californie. Les résumés
des conférences prévues donnent un aperçu de ce
qui est à la pointe en ce domaine (tout en anglais, bien entendu).
Attention ! Ce site s’adressant à des spécialistes,
le contenu pourra paraître un peu ardu.
Les applications industrielles de ces éléments sont totalement
tributaires de leurs durées de vie dont aucune n'a dépassé la
minute. De plus, leur caractère radioactif, leur coût
et leur taux de production rendent difficilement envisageables des
applications industrielles. Les chercheurs travaillent avec environ
34 atomes à l'heure pour l’élément 104 et
10 atomes à l'heure pour l’élément 105.
Pour les éléments plus lourds, les taux de production
chutent encore : pour l'élément 116, on parle de 3 événements,
en tout et pour tout. Il paraît donc totalement utopique d'espérer
faire quelque chose d'appliqué avec ces éléments.
En revanche, les défis techniques que la production de ces éléments
oblige à relever sont potentiellement générateurs
de progrès technologiques.
isabelle.billard@ires.in2p3.fr, 9 mai 2003
La classification périodique des éléments a-t-elle
une fin ? Bohr pensait que l'élément Z = 100 serait le
dernier élément. Que doit-on en penser ?
L'expérience montre aujourd'hui que Bohr s'était trompé puisque
nous en sommes à l'élément 116, le 118 s'étant
révélé être une erreur d'interprétation.
À l’heure actuelle, il a été possible d’obtenir
au moins un isotope de chaque élément jusqu’à l’élément
112 compris. Au-delà, quelques isotopes des éléments
114 et 116 ont été obtenus, les numéros impairs étant
plus difficiles à produire (il y a de profondes raisons théoriques à cela).
Si le tableau périodique a une fin, elle se situe donc nécessairement
au-delà de l’élément 116. Pourquoi l’absence
de limite supérieure au tableau périodique devrait-elle être
troublante ? Montrer que le tableau périodique est clos est
difficile. Expérimentalement, si l’on n’arrive pas à synthétiser
l’élément 117 (par exemple), c'est peut-être
que les techniques employées ne sont pas adaptées. Par
conséquent, si une théorie "prouve" que le
tableau est limité vers les hautes masses, elle ne pourra pas,
dans l’absolu, être confirmée expérimentalement
: l’absence de preuve n’est pas la preuve d’absence. À mon
avis, la question est mal posée mais elle est très intéressante.
Notons que les étoiles à neutrons sont en quelque sorte
des éléments super lourds qui se trouvent très
très loin dans le tableau périodique...
isabelle.billard@ires.in2p3.fr, 9 mai 2003
L'élément Z = 114 aurait une stabilité plus importante
que les autres transuraniens. Est-ce que l'expérience le confirme
?
Oui ! Cette question fait allusion à ce que l'on appelle depuis
déjà longtemps "l'îlot de stabilité" :
c'est une prédiction théorique qui stipule que, "quelque
part" dans la région des éléments lourds
de la classification périodique, doit exister un groupe d'éléments
dont certains isotopes auraient des durées de vie significativement
plus longues que les éléments ou isotopes environnants.
La théorie prédit que cet îlot doit se situer aux
alentours d'un nombre de neutrons de l'ordre de 185 et d’un nombre
de protons d'environ 110 (ce qui correspond à une masse d’environ
290). Par "significativement", on entend un fort facteur
multiplicatif et non pas une valeur absolue. Cet îlot semble
avoir été trouvé récemment. Voici quelques
chiffres (isotopes pair-pair) :
Élément |
Durée de vie |
110 (M=280) |
7,6 s (erreur : +5.8/-2,3 s) |
112 |
0,75 minute (erreur : +0.57/-0.23 min) |
114 (M=288) |
2,6 secondes (erreur : +2.0/-0.8 s) |
116 (M=296) |
53 ms (erreur : +62/-19 ms) |
Comparons ces valeurs à celles connues pour
l'isotope de masse 270 de l'élément 110. Ce dernier a
une durée de
vie de 100 μs, très inférieure aux 8 secondes
environ de durée de vie de l’isotope de masse 280 de l’élément
110 : il y a presque un facteur 105 entre les deux valeurs même
si 10 s reste une durée de vie courte. D'après les expérimentateurs
qui ont obtenu ces chiffres, c'est la preuve qu’ils sont aux
bords de l'îlot de stabilité (toute relative, comme on
peut le voir).
isabelle.billard@ires.in2p3.fr, 9 mai 2003
Comment peut-on mesurer la demi-vie de l'uranium 238 ?
Pour calculer la demi-vie de l'uranium 238, il faut déterminer le nombre de désintégrations alpha par an et par atome. Pour cela, on prend un échantillon aussi pur que possible d'uranium naturel (ou de préférence séparé isotopiquement), et l'on compte le nombre de désintégrations alpha pendant un temps donné.
Le premier problème est de connaître la masse d'uranium 238 contenue dans l'échantillon : pour cela, il faut déterminer la masse totale de l'échantillon, faire une analyse chimique afin de déterminer la proportion exacte d'uranium (qui est proche de 100% si l'échantillon a été bien préparé) et une analyse par spectrométrie de masse pour déterminer la contribution relative des isotopes 234, 235 et 238 de l'uranium. La contribution de l'uranium 238 est de toute façon proche de 100%, mais il faut la connaître avec la précision voulue.
Il faut ensuite s'assurer qu'aucune impureté ne risque de produire des désintégrations alpha non désirées et enfin compter les désintégrations alpha en fonction du temps : pour cela, il faut une bonne connaissance de l'efficacité du détecteur, un temps de comptage suffisamment long et une analyse en énergie des alpha émis pour déterminer les contributions relatives des isotopes 234, 235 et 238
Exemple d'un des échantillons de la mesure la plus précise effectuée en 1971 : on a compté 823,16 alpha par minute et par mg de l'échantillon; il y avait 99,979% d'uranium 238 dans cet échantillon et 90,67% des alpha provenaient de l'uranium 238. On a donc 823,16 x 0,9067/0,99979 = 746,52 désintégrations alpha par minute et par mg d'uranium 238.
Sachant que la masse atomique de 238U est 238,05 g, que le nombre d'Avogadro vaut 6,0221x1023 et qu'il y a 5,2595x105 minutes dans une année, on peut en déduire le nombre de désintégrations alpha par atome et par an :
λ = 746,52 x (238,05 x 103) x (5,2595 x 105) / (6,0221 x 1023) = 0,1552 x 10–9 désintégrations par atome et par an
et la demi-vie T1/2 = Log2/λ = 0,6931/(0,1552 x 10–9) = 4,466 x 109 ans
thibault@csnsm.in2p3.fr, 1 octobre 2003