Databac

Grand Oral — Mathématiques Comment les rotations, homothéties et symétries sont-elles au cœur du traitement des images numériques ?

Publié le 27/04/2026

Extrait du document

« Grand Oral — Mathématiques Comment les rotations, homothéties et symétries sont-elles au cœur du traitement des images numériques ? Introduction Chaque fois que vous redressez une photo sur votre téléphone, zoomez dans un jeu vidéo ou activez un filtre Instagram, des milliers de transformations géométriques s'appliquent à chaque pixel en quelques millisecondes.

Pourtant, tout cela repose sur des notions fondamentales mathématiques: la rotation, l'homothétie et la symétrie axiale. Une image numérique est un tableau de pixels, chacun repéré par ses coordonnées (x ; y) dans un repère et possédant une valeur de couleur codée en RVB.

Transformer une image, c'est appliquer une règle mathématique à chacun de ces points pour calculer sa nouvelle position.

La problématique est donc la suivante : en quoi les transformations géométriques constituent-elles le langage mathématique des images numériques, et comment structurent-elles les outils du traitement du signal et de l'intelligence artificielle ? I.

Les trois transformations fondamentales A.

La rotation Une rotation de centre O et d'angle θ est une transformation géométrique qui associe à tout point M un point M' tel que OM' = OM et que l'angle orienté (OM ; OM') = θ.

C'est une isométrie directe : elle conserve les distances, les angles et la forme de la figure, qui est simplement pivotée.

La composition de deux rotations de même centre est encore une rotation. Application concrète : redresser une photo prise de biais.

Le smartphone détecte que l'image est inclinée de −15° et applique une rotation de +15° à chaque pixel pour corriger l'alignement, sans aucune déformation.

On retrouve ce même principe dans l'animation d'une aiguille d'horloge, d'une hélice de ventilateur ou d'un personnage dans un jeu vidéo. B.

L'homothétie Une homothétie de centre O et de rapport k associe à tout point M un point M' sur la demidroite [OM) tel que OM' = k × OM.

Si k > 1, la figure est agrandie ; si 0 < k < 1, elle est réduite ; si k < 0, elle est retournée et redimensionnée.

Propriété clé : l'homothétie conserve les angles et la forme — seules les dimensions changent.

C'est ce qui distingue un vrai zoom optique (qui conserve les proportions) d'une déformation. Application concrète : le zoom × 2 sur smartphone déplace chaque pixel (x ; y) vers (2x ; 2y) par rapport au centre de l'image.

Les pixels « manquants » créés par l'agrandissement sont estimés par interpolation, c'est-à-dire calculés comme une moyenne pondérée des pixels voisins. C.

La symétrie axiale Une symétrie axiale d'axe d associe à tout point M son symétrique M' tel que le segment [MM'] soit perpendiculaire à d et que son milieu soit sur d.

Comme la rotation, c'est une isométrie : distances, angles et forme sont conservés.

Elle renvoie simplement la figure « en miroir ». Application concrète : le retournement horizontal de la caméra avant d'un smartphone. Sans cette symétrie axiale verticale appliquée à chaque image, le selfie serait perçu comme « inversé » par rapport à ce qu'on voit dans un miroir.

La transformation est recalculée pour chaque nouvelle image capturée. II.

Applications aux images numériques A.

Zoom, recadrage, stabilisation vidéo Chaque opération courante sur une image est directement une transformation géométrique.

Un zoom avant × k est une homothétie : chaque pixel (x ; y) devient (k·x ; k·y).

Un redressement de photo est une rotation d'angle −θ, inverse à l'angle de prise de vue.

Un retournement horizontal est une symétrie axiale.

Un recadrage consiste à sélectionner les pixels dont (x ; y) appartient au rectangle choisi. La stabilisation numérique (EIS) illustre bien la composition de transformations : le téléphone compare deux images consécutives pour détecter le mouvement global (translation + légère rotation due aux tremblements), calcule la transformation inverse, puis l'applique à l'image suivante.

La vidéo semble alors filmée avec une caméra fixe, malgré les secousses. B.

Le problème de l'interpolation Lorsqu'on applique un zoom ou une rotation, les pixels de destination ne coïncident pas toujours avec des coordonnées entières.

Il faut alors estimer la couleur d'un pixel à partir de ses voisins : c'est l'interpolation.

L'interpolation au plus proche voisin attribue la couleur du pixel le plus proche — rapide mais résultat pixellisé.

L'interpolation bilinéaire calcule une moyenne pondérée des 4 pixels voisins — meilleure qualité, utilisée en standard. L'interpolation bicubique utilise les 16 pixels voisins — qualité supérieure, employée par les appareils photo haut de gamme..... »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles