Chapitre 2 Questions de biophysique et de technologie
De la nécessité pour l’échographiste de définitions claires et distinctes sur un sujet qui peut être simplifié pour aider dans la pratique.
Premières définitions
Imagerie B
L’imagerie B est une coupe anatomique représentant les tissus et les limites des organes traversés par les ultrasons (US). Elle est construite à partir des échos générés par les interfaces des tissus. Chaque écho est positionné sur l’écran grâce à la mesure du temps entre l’émission et la réception. Sa luminosité (Brightness pour B Mode) dépend de son amplitude, c’est-à-dire son énergie.
Élément piézo-électrique
C’est la céramique qui a la propriété de transformer un signal électrique en onde de pression ultrasonore et inversement. Il sert donc d’émetteur et de récepteur. Aujourd’hui, les nouveaux matériaux composites permettent de faire évoluer cette technologie vers un signal ultrasonore et électrique de meilleure qualité.
Sonde multifréquence ou large bande
Anciennement, une sonde ne pouvait travailler qu’à une fréquence donnée. Aujourd’hui, les sondes utilisent des fréquences variables, on dit qu’elles sont « large bande ». Certaines peuvent gérer des fréquences composites (plusieurs fréquences associées). Pour les sondes abdominales, ces fréquences varient de 3 à 10 MHz environ ; de 5 à 20 MHz pour les sondes endocavitaires.
Énergie ou puissance
Il s’agit de décibels en ultrason. L’énergie, proportionnelle à l’amplitude du signal, n’a rien à voir avec la fréquence. Analogiquement, une petite fille peut chantonner avec un son aigu (énergie faible, fréquence élevée), et Pavarotti, avec une voix grave, pouvait chanter avec beaucoup de force (fréquence basse, énergie élevée).
Réglages
Quels réglages de l’échographe modifient l’échelle visuelle des gris, c’est-à-dire l’intensité des blancs et des noirs ?
Ces réglages doivent être adaptés à chaque patiente (figure 2.2A, B, C) :
• contraste et brillance du moniteur ;
• gain (post traitement) et réglage TGC (Time Gain Compensation : la dizaine de petits curseurs qui se déplacent parallèlement les uns aux autres et qui permettent de modifier le gain à chaque étage de l’image) ;
• puissance acoustique, ou énergie d’émission ;
• contraste ou dynamique (compression de l’échelle) ;
• courbe gamma (rend compte de la courbe générale de l’intensité des points en fonction de l’amplitude des échos ; il n’est pas conseillé d’y toucher) ;
• reject ou filtre (il supprime les faibles échos, c’est-à-dire ceux ayant peu d’énergie).
Quels réglages de l’échographe modifient la cadence image en imagerie B ?
La cadence image (CI) est le nombre d’images générées par l’échographe à la seconde. Unité : Hz ordre de grandeur : autour de 25 [10 à 200] Hz. (vidéo 2.1)
• profondeur : quand elle augmente, la CI diminue ;
• largeur de la fenêtre : quand elle augmente, la CI diminue ;
• zoom (à l’écriture) : quand il augmente, la CI augmente ;
• tirs croisés (compound) : quand il est activé, la CI diminue ;
• densité de ligne (ou Beam process) : quand elle augmente, la CI diminue ;
• focales : plus elles sont nombreuses plus la CI diminue ;
• doppler couleur : plus la fenêtre est grande plus la CI est faible ;
Ne jouent pas sur la cadence image :
Qu’est-ce que le rapport signal/bruit ?
C’est le rapport entre la puissance du signal (l’écho) et celle des bruits parasites (bruit de fond). Le bruit de fond est essentiellement lié à la diffusion. Si le signal est faible, il se confond avec le bruit de fond : le rapport signal/bruit est insuffisant. Pour améliorer ce rapport, il faut, en obstétrique, augmenter la puissance d’émission au maximum, permettant ainsi de rehausser le signal plus que le bruit de fond.
Comment j’explique la formation d’un point sur une image – localisation et intensité du blanc
(Remarque : ne sont pas évoqués dans ce paragraphe les lissages et les autres réglages possibles, qui sont abordés par la suite.)
Un point sur l’écran (ou pixel) représente un écho de l’ultrason émis (on parle d’onde incidente et d’onde réfléchie). Il se forme quand il rencontre une interface entre deux éléments de propriétés mécaniques différentes. Son énergie est proportionnelle à la différence d’impédance. Quand les deux structures sont très différentes (par exemple muscle-os), l’énergie (ou amplitude) de l’onde réfléchie est forte ; quand la différence d’impédance est petite, l’énergie de l’onde réfléchie est faible (l’unité de l’énergie acoustique est le décibel : dB). L’énergie de l’onde réfléchie se traduit sur l’écran par l’intensité du blanc (Brightness, luminosité, en mode B). Le point est positionné sur l’écran par la simple mesure du temps t entre l’émission et la réception. En effet, D = c.t ; la distance entre la sonde représentée par le haut de l’image et le point étudié est la mesure d. La distance d doit être parcourue deux fois : aller (d) + retour (d) ; D = 2d ; c = la vitesse moyenne des ultrasons dans le corps humain (1 540 m/s). Chaque ligne étant construite l’une après l’autre, l’image se forme grâce à la succession de lignes (figure 2.3).
Comment j’explique la différence entre lissage temporel et lissage spatial
Le lissage temporel consiste à superposer des images successives pour rendre l’aspect plus riche en informations et diminuer le bruit (c’est-à-dire les échos liés au hasard). On peut l’appeler aussi rémanence. Au niveau du réglage, le chiffre indiqué est le nombre d’images ajoutées. Plus elles sont anciennes ; plus elles deviennent transparentes.
Le lissage spatial consiste essentiellement à combler en profondeur le vide laissé entre deux lignes d’analyse. En effet, les lignes de tir étant divergentes, puisque les sondes sont convexes, des points ou pixels sont créés entre deux lignes. L’intensité du point est calculée en prenant en compte les points environnants. C’est l’interpolation. Il est associé à un effet de flou consistant à morceler les pixels (c’est-à-dire à diviser chaque pixel en une multitude de pixels plus petits) et atténuer ou renforcer l’intensité du blanc de chacun en fonction du voisinage. L’image apparaît plus fine et semble de meilleure résolution. Pour limiter l’effet visuel de flou, un traitement de renforcement des contours est associé comme dans les jeux vidéo.
Comment j’explique les différences entre les résolutions spatiales et la résolution de contraste
La résolution spatiale est la plus petite distance entre deux points que l’échographe est capable de différencier. En dessous de cette limite biophysique, les deux points apparaîtront comme un seul. La résolution axiale (dans le sens des ultrasons, c’est-à-dire verticale) est meilleure (donc plus petite) que la résolution latérale (perpendiculaire à la précédente, ou horizontale) (figure 2.4).

Figure 2.4 Résolution axiale et latérale : les points sont mieux distingués les uns des autres dans l’axe des ultrasons (résolution axiale).
La résolution de contraste est la plus petite différence de niveau de gris (ou de différence d’impédance) que l’échographe est capable de traduire à l’écran.
Comment j’explique et j’illustre les limites de la résolution axiale en faisant appel aux connaissances sur la longueur d’onde
La résolution axiale est limitée par la longueur de l’onde λ. Celle-ci se calcule comme suit :
Où c = 1 540 m/s ; c’est la vitesse moyenne des ultrasons dans le corps humain, et f la fréquence de la sonde en MHz.
Ainsi, λ = 1 540 000 (mm/s)/6 000 000 (Hz) pour une sonde de 6 MHz.
C’est-à-dire λ = 1,5/6 (en mm) = 0,25 mm.
La résolution axiale la meilleure pouvant être obtenue par un appareil d’échographie est donc de l’ordre de 0,25 mm pour une fréquence de 6 MHz.
De façon simple, λ (mm) = 1,5/fr ; fr étant la fréquence de la sonde exprimée en MHz.
La mesure de la clarté nucale s’exprime au 10e de millimètre ; faire une différence aussi petite entre deux mesures est donc un non-sens biophysique. On comprend pourquoi sa variabilité inter-observateur est de ± 0,6 mm au 95e percentile.
Pour aller plus loin
Comment j’explique l’atténuation de la pixellisation par anticrénelage et son inconvénient sur les toutes petites mesures
Les informations brutes obtenues par l’échographe sont des pixels dont la taille est liée à la longueur d’onde. La hauteur est plus fine que la largeur. Ainsi, pour une sonde de 6 MHz, le pixel le plus petit est au mieux de l’ordre de 0,25 x 0,50 mm. À l’écran, l’image est bien plus fine et la résolution semble meilleure. En effet, il existe une démultiplication des pixels avec un traitement spatial et temporel tel que l’image reste vraisemblable et riche. Chaque pixel est morcelé. Le nombre de pixels est donc multiplié. Le traitement spatial de l’image comporte un anticrénelage afin d’éviter l’effet visuel de marche d’escalier. Il consiste entre autres à rendre l’image légèrement floue (en fractionnant chaque pixel, et en étalant ces points en gradient de gris), puis à renforcer les contours par affutage. Comme sur un logiciel de traitement d’image (type Photoshop®), l’affutage consiste à détecter les contours pour renforcer l’intensité du blanc et du noir sur deux lignes parallèles, améliorant le confort visuel. L’impression subjective de l’opérateur est à l’amélioration de la résolution. Il n’en est objectivement rien, c’est la netteté globale qui a été artificiellement améliorée. C’est le SRI de GE® ou l’AIP d’Aloka®, la Precision de Toshiba® par exemple.
Ceci aboutit à un léger épaississement des parois. Les petites mesures d’anéchogénicité, comme la mesure de la clarté nucale, sont donc diminuées d’autant.
Sur la ligne A figurant une mesure de clarté nucale, les flèches sont positionnées sur la marche d’escalier entre le blanc et le noir. La limite est nette. Sur la ligne B qui a subi le traitement par anticrénelage, la partie blanche apparaît plus large, l’image est plus agréable, mais la mesure de la clarté nucale est diminuée (figure 2.5).

Figure 2.5 Comment atténuer la pixellisation par anticrénelage : un flou est créé avec épaississement de l’hyperéchogénicité.

Stay updated, free articles. Join our Telegram channel

Full access? Get Clinical Tree

