{"id":1829,"date":"2026-03-30T08:38:09","date_gmt":"2026-03-30T07:38:09","guid":{"rendered":"https:\/\/katharina-schmidt-engineering.de\/?p=1829"},"modified":"2026-04-03T13:25:10","modified_gmt":"2026-04-03T12:25:10","slug":"metriken-zur-bildevaluation","status":"publish","type":"post","link":"https:\/\/katharina-schmidt-engineering.de\/en\/metriken-zur-bildevaluation\/","title":{"rendered":"Bildmetriken erkl\u00e4rt: MSE, PSNR und SSIM im Vergleich"},"content":{"rendered":"<div class=\"gb-element-acabfd37\">\n<h2 class=\"wp-block-heading\">Kurzzusammenfassung<\/h2>\n\n\n\n<p>Dieser Beitrag gibt einen kompakten \u00dcberblick \u00fcber zentrale <strong>Bildmetriken<\/strong> zur Bewertung von Bildverarbeitungsmodellen, darunter <strong>MSE<\/strong>, <strong>SSIM<\/strong> und <strong>PSNR<\/strong>, und deren Einsatz je nach Anwendungsfall. Er zeigt, welche Kennzahlen wirklich aussagekr\u00e4ftig sind und wo ihre Grenzen liegen. Ziel ist es, eine fundierte Grundlage f\u00fcr die Auswahl und Interpretation geeigneter Evaluationsmetriken in der Praxis zu schaffen.<\/p>\n<\/div>\n\n\n\n<div>\n<div style=\"height:50px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h2 class=\"wp-block-heading\">\u00dcberblick<\/h2>\n\n\n\n<p>Digitale Bilder spielen in vielen Gesch\u00e4ftsprozessen eine zentrale Rolle \u2013 von der Qualit\u00e4tskontrolle in der Produktion \u00fcber Produktbilder im E-Commerce bis hin zur automatisierten Auswertung durch Machine-Learning-Modelle. Doch sobald Bilder ver\u00e4ndert, komprimiert oder durch Algorithmen verarbeitet werden, stellt sich eine zentrale Frage: <strong>Wie l\u00e4sst sich die Bildqualit\u00e4t objektiv messen?<\/strong> Daf\u00fcr kommen sogenannte <em>Bildmetriken<\/em> ins Spiel, welche Bilder quantitativ bewerten.<\/p>\n\n\n\n<p>Kennzahlen wie <strong>Mean Squared Error (MSE)<\/strong>, <strong>Peak Signal-to-Noise Ratio (PSNR)<\/strong> und <strong>Structural Similarity Index (SSIM)<\/strong> werden in der Praxis h\u00e4ufig eingesetzt, um Unterschiede zwischen Bildern zu quantifizieren. Sie bilden die Grundlage f\u00fcr die Bewertung von Bildverarbeitungspipelines und Validierung von KI-Modellen im Computer Vision Bereich.<\/p>\n\n\n\n<p>In der Praxis zeigt sich jedoch schnell: <strong>Nicht jede Metrik misst das, was f\u00fcr den Menschen tats\u00e4chlich \u201esichtbar\u201c relevant ist.<\/strong> W\u00e4hrend einige Verfahren rein pixelbasierte Abweichungen erfassen, ber\u00fccksichtigen andere die strukturelle Wahrnehmung des menschlichen Auges. Die Wahl der richtigen Metrik ist daher kein Detail, sondern entscheidend f\u00fcr valide Ergebnisse \u2013 insbesondere in produktiven Anwendungen.<\/p>\n\n\n\n<p>In diesem Beitrag zeige ich anhand eigener Bildbeispiele und reproduzierbarer Python-Experimente, wie sich verschiedene Bildmetriken in realistischen Szenarien verhalten. Ziel ist es, ein &nbsp;Verst\u00e4ndnis daf\u00fcr zu entwickeln, <strong>wann welche Metrik sinnvoll ist \u2013 und wann sie in die Irre f\u00fchrt<\/strong>.<\/p>\n<\/div>\n\n\n\n<div>\n<h2 class=\"wp-block-heading\"><strong>MSE &#8211; der Klassiker beim Training neuronaler Netze f\u00fcr Bildaufgaben<\/strong><\/h2>\n\n\n\n<p>Der <strong>Mean Squared Error (MSE)<\/strong> misst den durchschnittlichen quadratischen Fehler auf Pixel-Ebene und liefert damit eine direkte Aussage dar\u00fcber, wie stark sich ein ver\u00e4ndertes Bild vom Original unterscheidet.<\/p>\n\n\n\n<p>Formal ist der MSE definiert als:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>M<\/mi><mi>S<\/mi><mi>E<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>x<\/mi><mo separator=\"true\">,<\/mo><mi>y<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><mfrac><mn>1<\/mn><mi>N<\/mi><\/mfrac><mrow><munderover><mo movablelimits=\"false\">\u2211<\/mo><mrow><mi>i<\/mi><mo>=<\/mo><mn>1<\/mn><\/mrow><mi>N<\/mi><\/munderover><\/mrow><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msub><mi>x<\/mi><mi>i<\/mi><\/msub><mo>\u2212<\/mo><msub><mi>y<\/mi><mi>i<\/mi><\/msub><msup><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mn>2<\/mn><\/msup><\/mrow><annotation encoding=\"application\/x-tex\">MSE(x, y) = \\frac{1}{N} \\sum_{i=1}^{N} (x_i &#8211; y_i)^2<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Dabei bezeichnet (x_i) den Pixelwert des Originalbildes, (y_i) den entsprechenden Pixelwert des ver\u00e4nderten Bildes und (N) die Gesamtanzahl aller Pixel. Durch das Quadrieren der Differenzen werden gr\u00f6\u00dfere Abweichungen st\u00e4rker gewichtet als kleinere.<\/p>\n\n\n\n<p>Ein niedriger MSE-Wert bedeutet, dass die beiden Bilder sich im Durchschnitt nur gering unterscheiden, w\u00e4hrend ein hoher Wert auf deutliche Abweichungen hinweist. Wichtig ist jedoch: Der MSE betrachtet ausschlie\u00dflich pixelweise Unterschiede und ignoriert dabei vollst\u00e4ndig die r\u00e4umliche Struktur eines Bildes. Zwei Bilder k\u00f6nnen daher einen relativ niedrigen MSE aufweisen, obwohl sie f\u00fcr das menschliche Auge deutlich unterschiedlich wirken.<\/p>\n\n\n\n<p>Diese Eigenschaft macht den MSE zwar einfach und effizient berechenbar, aber auch in vielen praktischen Anwendungen begrenzt aussagekr\u00e4ftig. Genau deshalb spielt er in der Bildbewertung h\u00e4ufig eher die Rolle einer technischen Referenzgr\u00f6\u00dfe.<\/p>\n\n\n\n<p>Gleichzeitig ist der MSE eng mit dem Training neuronaler Netze verkn\u00fcpft. In vielen Regressionsproblemen \u2013 insbesondere bei bildbasierten Aufgaben wie Denoising, Super-Resolution oder Bild Transformationen \u2013 wird der MSE als <strong>Loss-Funktion<\/strong> verwendet. Modelle lernen dabei, die quadratische Abweichung zwischen Vorhersage und Zielbild zu minimieren. Das f\u00fchrt in der Praxis oft zu glatten, \u201egemittelten\u201c Ergebnissen, da starke Abweichungen (durch das Quadrieren) besonders stark bestraft werden.<\/p>\n\n\n\n<p>Diese Verbindung erkl\u00e4rt auch, warum MSE-optimierte Modelle h\u00e4ufig zwar gute numerische Werte erzielen, aber visuell weniger \u00fcberzeugende Ergebnisse liefern: Die Optimierung erfolgt strikt pixelweise und nicht entlang der menschlichen Wahrnehmung.<\/p>\n<\/div>\n\n\n\n<div>\n<h2 class=\"wp-block-heading\"><strong>PSNR \u2013 mathematisch korrekt, aber praktisch begrenzt<\/strong><\/h2>\n\n\n\n<p>Die <strong>Peak Signal-to-Noise Ratio (PSNR)<\/strong> basiert auf der Idee, das Verh\u00e4ltnis zwischen dem maximal m\u00f6glichen Signal (dem urspr\u00fcnglichen Bild) und dem durch Verarbeitung entstandenen Fehler (\u201eRauschen\u201c) zu quantifizieren. Der PSNR-Wert wird typischerweise in <strong>Dezibel (dB)<\/strong> angegeben und erlaubt damit eine gut interpretierbare, logarithmische Bewertung von Bildunterschieden.<\/p>\n\n\n\n<p>Formal baut PSNR auf dem <strong>Mean Squared Error (MSE)<\/strong> auf, also dem durchschnittlichen quadratischen Unterschied zwischen zwei Bildern. Die Definition lautet:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>P<\/mi><mi>S<\/mi><mi>N<\/mi><mi>R<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>x<\/mi><mo separator=\"true\">,<\/mo><mi>y<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><mn>20<\/mn><mo>\u22c5<\/mo><msub><mi>log<\/mi><mn>10<\/mn><\/msub><mo>\u2061<\/mo><mrow><mo fence=\"true\" form=\"prefix\">(<\/mo><mfrac><mrow><mi>M<\/mi><mi>A<\/mi><msub><mi>X<\/mi><mi>I<\/mi><\/msub><\/mrow><msqrt><mrow><mi>M<\/mi><mi>S<\/mi><mi>E<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>x<\/mi><mo separator=\"true\">,<\/mo><mi>y<\/mi><mo form=\"postfix\" stretchy=\"false\" lspace=\"0em\" rspace=\"0em\">)<\/mo><\/mrow><\/msqrt><\/mfrac><mo fence=\"true\" form=\"postfix\">)<\/mo><\/mrow><\/mrow><annotation encoding=\"application\/x-tex\">PSNR(x, y) = 20 \\cdot \\log_{10} \\left( \\frac{MAX_I}{\\sqrt{MSE(x, y)}} \\right)<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Dabei ist <math data-latex=\"MAX_I\"><semantics><mrow><mi>M<\/mi><mi>A<\/mi><msub><mi>X<\/mi><mi>I<\/mi><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">MAX_I<\/annotation><\/semantics><\/math> der maximal m\u00f6gliche Pixelwert (bei 8-Bit-Bildern typischerweise 255). Ein h\u00f6herer PSNR-Wert deutet darauf hin, dass das ver\u00e4nderte Bild n\u00e4her am Original liegt.<\/p>\n\n\n\n<p>Ein wesentlicher Vorteil von PSNR ist die einfache Berechnung und die klare Interpretation: Unterschiede werden auf einer logarithmischen Skala dargestellt, wodurch gro\u00dfe Fehler st\u00e4rker gewichtet werden als kleine. Gleichzeitig ist der PSNR-Wert jedoch eine rein pixelbasierte Metrik. Das bedeutet, dass strukturelle Unterschiede oder wahrnehmungsrelevante Ver\u00e4nderungen (z. B. durch Unsch\u00e4rfe) nicht immer ad\u00e4quat erfasst werden.<\/p>\n\n\n\n<p>In der Praxis eignet sich PSNR daher gut f\u00fcr technische Vergleiche, etwa bei Kompressionsverfahren oder zur groben Qualit\u00e4tsbewertung. F\u00fcr Anwendungen, bei denen die visuelle Wahrnehmung im Vordergrund steht, sollte PSNR jedoch immer in Kombination mit strukturorientierten Metriken wie SSIM betrachtet werden.<\/p>\n<\/div>\n\n\n\n<div>\n<h2 class=\"wp-block-heading\"><strong>SSIM \u2013 Struktur statt Pixel<\/strong><\/h2>\n\n\n\n<p>Der <strong>Structural Similarity Index (SSIM)<\/strong> ist eine wahrnehmungsorientierte Bildmetrik, die entwickelt wurde, um die Qualit\u00e4t von Bildern n\u00e4her an der menschlichen Wahrnehmung zu orientieren als rein pixelbasierte Verfahren wie MSE oder PSNR. Statt absolute Intensit\u00e4tsunterschiede zu betrachten, nutzt SSIM die <strong>Struktur<\/strong>, den <strong>Kontrast<\/strong> und die <strong>Helligkeit<\/strong> der Bilder.<\/p>\n\n\n\n<p>Die grundlegende Idee dabei ist, dass das menschliche Auge besonders empfindlich auf strukturelle Ver\u00e4nderungen reagiert \u2013 also auf Kanten, Muster und Texturen \u2013 und weniger auf gleichm\u00e4\u00dfige Helligkeitsverschiebungen. Formal wird SSIM zwischen zwei Bildern (x) und (y) wie folgt definiert:<\/p>\n\n\n\n<div class=\"wp-block-math\"><math display=\"block\"><semantics><mrow><mi>S<\/mi><mi>S<\/mi><mi>I<\/mi><mi>M<\/mi><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mi>x<\/mi><mo separator=\"true\">,<\/mo><mi>y<\/mi><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo>=<\/mo><mfrac><mrow><mo form=\"prefix\" stretchy=\"false\" lspace=\"0em\" rspace=\"0em\">(<\/mo><mn>2<\/mn><msub><mi>\u03bc<\/mi><mi>x<\/mi><\/msub><msub><mi>\u03bc<\/mi><mi>y<\/mi><\/msub><mo>+<\/mo><msub><mi>C<\/mi><mn>1<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo form=\"prefix\" stretchy=\"false\">(<\/mo><mn>2<\/mn><msub><mi>\u03c3<\/mi><mrow><mi>x<\/mi><mi>y<\/mi><\/mrow><\/msub><mo>+<\/mo><msub><mi>C<\/mi><mn>2<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\" lspace=\"0em\" rspace=\"0em\">)<\/mo><\/mrow><mrow><mo form=\"prefix\" stretchy=\"false\" lspace=\"0em\" rspace=\"0em\">(<\/mo><msubsup><mi>\u03bc<\/mi><mi>x<\/mi><mn>2<\/mn><\/msubsup><mo>+<\/mo><msubsup><mi>\u03bc<\/mi><mi>y<\/mi><mn>2<\/mn><\/msubsup><mo>+<\/mo><msub><mi>C<\/mi><mn>1<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\">)<\/mo><mo form=\"prefix\" stretchy=\"false\">(<\/mo><msubsup><mi>\u03c3<\/mi><mi>x<\/mi><mn>2<\/mn><\/msubsup><mo>+<\/mo><msubsup><mi>\u03c3<\/mi><mi>y<\/mi><mn>2<\/mn><\/msubsup><mo>+<\/mo><msub><mi>C<\/mi><mn>2<\/mn><\/msub><mo form=\"postfix\" stretchy=\"false\" lspace=\"0em\" rspace=\"0em\">)<\/mo><\/mrow><\/mfrac><\/mrow><annotation encoding=\"application\/x-tex\">SSIM(x,y) = \\frac{(2 \\mu_x \\mu_y + C_1)(2 \\sigma_{xy} + C_2)}{(\\mu_x^2 + \\mu_y^2 + C_1)(\\sigma_x^2 + \\sigma_y^2 + C_2)}<\/annotation><\/semantics><\/math><\/div>\n\n\n\n<p>Dabei gilt:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>(<math data-latex=\"\\mu_x, \\mu_y\"><semantics><mrow><msub><mi>\u03bc<\/mi><mi>x<\/mi><\/msub><mo separator=\"true\">,<\/mo><msub><mi>\u03bc<\/mi><mi>y<\/mi><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">\\mu_x, \\mu_y<\/annotation><\/semantics><\/math>): Mittelwerte der Bildintensit\u00e4ten (Helligkeit)<\/li>\n\n\n\n<li>(<math data-latex=\"\\sigma_x^2, \\sigma_y^2\"><semantics><mrow><msubsup><mi>\u03c3<\/mi><mi>x<\/mi><mn>2<\/mn><\/msubsup><mo separator=\"true\">,<\/mo><msubsup><mi>\u03c3<\/mi><mi>y<\/mi><mn>2<\/mn><\/msubsup><\/mrow><annotation encoding=\"application\/x-tex\">\\sigma_x^2, \\sigma_y^2<\/annotation><\/semantics><\/math>): Varianzen (Kontrast)<\/li>\n\n\n\n<li>(<math data-latex=\"\\sigma_{xy}\"><semantics><msub><mi>\u03c3<\/mi><mrow><mi>x<\/mi><mi>y<\/mi><\/mrow><\/msub><annotation encoding=\"application\/x-tex\">\\sigma_{xy}<\/annotation><\/semantics><\/math>): Kovarianz zwischen beiden Bildern (Struktur\u00e4hnlichkeit)<\/li>\n\n\n\n<li>(<math data-latex=\"C_1, C_2\"><semantics><mrow><msub><mi>C<\/mi><mn>1<\/mn><\/msub><mo separator=\"true\">,<\/mo><msub><mi>C<\/mi><mn>2<\/mn><\/msub><\/mrow><annotation encoding=\"application\/x-tex\">C_1, C_2<\/annotation><\/semantics><\/math>): Konstanten zur Stabilisierung der Division<\/li>\n<\/ul>\n\n\n\n<p>Die Formel l\u00e4sst sich in drei interpretierbare Komponenten zerlegen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Luminanzvergleich<\/strong>: Wie \u00e4hnlich ist die durchschnittliche Helligkeit?<\/li>\n\n\n\n<li><strong>Kontrastvergleich<\/strong>: Wie \u00e4hnlich sind die Intensit\u00e4tsschwankungen?<\/li>\n\n\n\n<li><strong>Strukturvergleich<\/strong>: Wie \u00e4hnlich sind lokale Muster und Abh\u00e4ngigkeiten?<\/li>\n<\/ul>\n\n\n\n<p>Der SSIM-Wert liegt im Bereich zwischen <strong>0 und 1<\/strong>, wobei ein Wert von <strong>1<\/strong> identische Bilder bedeutet, je nach Implementierung kann der SSIM-Wert auch zwischen -1 und 1 liegen, hier muss man unbedingt auf die Dokumentation der genutzten Funktion achten. <\/p>\n\n\n\n<p>Im Gegensatz zu MSE und PSNR korreliert SSIM deutlich besser mit der wahrgenommenen Bildqualit\u00e4t. In der Praxis zeigt sich der Vorteil besonders bei strukturellen Ver\u00e4nderungen: W\u00e4hrend ein leicht verrauschtes Bild oft noch als \u201e\u00e4hnlich\u201c wahrgenommen wird, f\u00fchrt Unsch\u00e4rfe zu einem starken Verlust an Struktur \u2013 und damit zu deutlich niedrigeren SSIM-Werten. Genau diese Eigenschaft macht SSIM zu einer bevorzugten Metrik in vielen Computer-Vision-Anwendungen, insbesondere wenn es um visuelle Qualit\u00e4t und nicht nur um numerische Genauigkeit geht.<\/p>\n<\/div>\n\n\n\n<div>\n<h2 class=\"wp-block-heading\">Praxisbeispiel<\/h2>\n\n\n\n<p>Nach den theoretischen Grundlagen stellt sich die entscheidende Frage: <strong>Wie verhalten sich diese Metriken in einem realen Szenario?<\/strong><\/p>\n\n\n\n<p>Um das greifbar zu machen, betrachte ich ein konkretes Beispiel: ein Bild eines Raspberry Pi auf einem wei\u00dfen Tisch \u2013 also eine Szene mit klaren Kanten, aber gleichzeitig relativ wenig Hintergrundstruktur.<\/p>\n\n\n\n<p>Auf dieses Bild wende ich zwei unterschiedliche Arten von Bildver\u00e4nderungen an:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Gaussian Blur (Kernel Size = 29)<\/strong> \u2192 reduziert gezielt die Bildsch\u00e4rfe und zerst\u00f6rt feine Strukturen<\/li>\n\n\n\n<li><strong>Gaussian Noise (\u03c3 = 60)<\/strong> \u2192 f\u00fcgt pixelweises Rauschen hinzu, ohne die grundlegende Struktur zu ver\u00e4ndern<\/li>\n<\/ul>\n\n\n\n<p>Beide Transformationen erzeugen visuell deutliche Ver\u00e4nderungen \u2013 allerdings auf sehr unterschiedliche Weise. Die Erkenntnis daraus vorab: <strong>Die Metriken reagieren nicht gleich auf diese beiden Transformationen.<\/strong><\/p>\n\n\n\n<p>Im folgenden Vergleich sind zun\u00e4chst die drei Bilder nebeneinander dargestellt: das Original, die verrauschte Variante und das unscharfe Bild. Darunter folgt eine Tabelle mit den berechneten Werten f\u00fcr MSE, PSNR und SSIM.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img data-opt-id=228348276  fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"220\" src=\"https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:1024\/h:220\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_raspberry.png\" alt=\"Qualitativer Vergleich zwischen Originalbild (Raspberry Pi), Bild mit Rauschen und Bild mit Unsch\u00e4rfe\" class=\"wp-image-1875\" srcset=\"https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:1024\/h:220\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_raspberry.png 1024w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:300\/h:65\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_raspberry.png 300w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:768\/h:165\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_raspberry.png 768w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:18\/h:4\/q:mauto\/f:best\/dpr:2\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_raspberry.png 18w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:1189\/h:256\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_raspberry.png 1189w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Abbildung 1: Vergleich von Originalbild eines Raspberry Pi, Bild mit Rauschen und Bild mit Unsch\u00e4rfe<\/figcaption><\/figure>\n\n\n\n<p>W\u00e4hrend der visuelle Vergleich bereits kleine Unterschiede zwischen den Transformationen erkennen l\u00e4sst, wird die Bewertung erst die quantitativen Metriken m\u00f6glich. Die folgende Tabelle zeigt die berechneten Werte f\u00fcr MSE, PSNR und SSIM und macht sichtbar, wie unterschiedlich die beiden Verzerrungsarten bewertet werden.<\/p>\n\n\n\n<figure class=\"wp-block-table aligncenter\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Transformation<\/strong><\/td><td><strong>MSE<\/strong><\/td><td><strong>PSNR<\/strong><\/td><td><strong>SSIM<\/strong><\/td><\/tr><tr><td>Rauschen (Noise)<\/td><td>2632.38<\/td><td>13.93 dB<\/td><td>0.094<\/td><\/tr><tr><td>Unsch\u00e4rfe (Blur)<\/td><td>71.28<\/td><td>29.6 dB<\/td><td>0.867<\/td><\/tr><\/tbody><\/table><figcaption class=\"wp-element-caption\">Tabelle 1: Quantitative Ergebnisse des Vergleichs (Raspberry Pi Bild)<\/figcaption><\/figure>\n\n\n\n<p>Als n\u00e4chstes eine komplexere Szene: eine Garten- bzw. Landschaftsaufnahme mit vielen feinen, nat\u00fcrlichen Strukturen sowie zus\u00e4tzlichen Reflexionen im Fensterglas. Solche Bilder stellen deutlich h\u00f6here Anforderungen an Bildmetriken, da sie eine Vielzahl lokaler Details und nicht-homogener Muster enthalten.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img data-opt-id=574457033  fetchpriority=\"high\" decoding=\"async\" width=\"1024\" height=\"220\" src=\"https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:1024\/h:220\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_garten.png\" alt=\"Qualitativer Vergleich zwischen Originalbild (Garten), Bild mit Rauschen und Bild mit Unsch\u00e4rfe\" class=\"wp-image-1888\" srcset=\"https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:1024\/h:220\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_garten.png 1024w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:300\/h:65\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_garten.png 300w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:768\/h:165\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_garten.png 768w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:18\/h:4\/q:mauto\/f:best\/dpr:2\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_garten.png 18w, https:\/\/mll2xneynph8.i.optimole.com\/cb:Y_xD.62c\/w:1189\/h:256\/q:mauto\/f:best\/https:\/\/katharina-schmidt-engineering.de\/wp-content\/uploads\/2026\/03\/visual_comparison_garten.png 1189w\" sizes=\"(max-width: 1024px) 100vw, 1024px\" \/><figcaption class=\"wp-element-caption\">Abbildung 2: Vergleich von Originalbild (Garten), Bild mit Rauschen und Bild mit Unsch\u00e4rfe<\/figcaption><\/figure>\n\n\n\n<figure class=\"wp-block-table aligncenter\"><table class=\"has-fixed-layout\"><tbody><tr><td><strong>Transformation<\/strong><\/td><td><strong>MSE<\/strong><\/td><td><strong>PSNR<\/strong><\/td><td class=\"has-text-align-left\" data-align=\"left\"><strong>SSIM<\/strong><\/td><\/tr><tr><td>Rauschen (Noise)<\/td><td>3133.66<\/td><td>13.17 dB<\/td><td class=\"has-text-align-left\" data-align=\"left\">0.309<\/td><\/tr><tr><td>Unsch\u00e4rfe (Blur)<\/td><td>422.64<\/td><td>21.87 dB<\/td><td class=\"has-text-align-left\" data-align=\"left\">0.326<\/td><\/tr><\/tbody><\/table><figcaption class=\"wp-element-caption\">Tabelle 2: Quantitative Ergebnisse des Vergleichs (Garten Bild)<\/figcaption><\/figure>\n\n\n\n<p>Im Vergleich zum vorherigen Beispiel ver\u00e4ndert sich hier das Verhalten der Metriken sp\u00fcrbar. Zwar wird das verrauschte Bild weiterhin als deutlich vom Original abweichend erkannt, jedoch f\u00e4llt auf, dass die strukturelle Bewertung weniger stark differenziert als zuvor.<\/p>\n\n\n\n<p>Eine wichtige Erkenntnis beim unscharfen Bild: W\u00e4hrend die pixelbasierten Metriken (MSE und PSNR) weiterhin eine geringere Abweichung anzeigen als beim Rauschen, n\u00e4hert sich die strukturelle Bewertung (ausgedr\u00fcckt durch den SSIM-Wert) deutlich an. Der Unterschied zwischen Noise und Blur, der im vorherigen Szenario noch klar erkennbar war, wird hier wesentlich kleiner.<\/p>\n\n\n\n<p>Der Grund liegt in der Bildcharakteristik selbst. Die Szene enth\u00e4lt viele feine Details \u2013 etwa Bl\u00e4tter, \u00c4ste und komplexe Texturen \u2013, die sowohl durch Rauschen als auch durch Unsch\u00e4rfe stark beeintr\u00e4chtigt werden. W\u00e4hrend Rauschen die Pixelwerte zuf\u00e4llig ver\u00e4ndert, f\u00fchrt Blur dazu, dass genau diese feinen Strukturen gegl\u00e4ttet und teilweise vollst\u00e4ndig entfernt werden.<\/p>\n\n\n\n<p>Aus Sicht von strukturbasierten Metriken wie SSIM resultieren beide Effekte daher in einer \u00e4hnlichen Bewertung: In beiden F\u00e4llen geht ein erheblicher Teil der lokalen Bildinformation verloren.<\/p>\n\n\n\n<p><strong>F\u00fcr die Praxis bedeutet das:<\/strong> Je komplexer und strukturreicher ein Bild ist, desto schwieriger wird es, unterschiedliche Bildfehler voneinander zu unterscheiden.<\/p>\n\n\n\n<p>Diese Beispiele sollen eine wichtige Grenze von Bildmetriken zeigen: Selbst wahrnehmungsorientierte Verfahren wie SSIM k\u00f6nnen unterschiedliche Artefakte in komplexen Szenarien \u00e4hnlich bewerten \u2013 obwohl die visuelle Wirkung f\u00fcr den Menschen unterschiedlich sein kann.<\/p>\n<\/div>\n\n\n\n<div>\n<h2 class=\"wp-block-heading\">Fazit MSE vs. PSNR vs. SSIM<\/h2>\n\n\n\n<p>MSE, PSNR und SSIM messen unterschiedliche Aspekte von Bildqualit\u00e4t \u2013 und genau darin liegt ihre St\u00e4rke und ihre Grenze. MSE und PSNR erfassen pr\u00e4zise pixelweise Abweichungen, reagieren jedoch kaum auf wahrnehmungsrelevante Ver\u00e4nderungen. SSIM ber\u00fccksichtigt zus\u00e4tzlich strukturelle Informationen und ist damit n\u00e4her an der menschlichen Wahrnehmung, verliert jedoch in komplexen Szenen an Differenzierungsf\u00e4higkeit.<\/p>\n\n\n\n<p><strong>Meine Empfehlung:<\/strong> Keine dieser Metriken sollte isoliert betrachtet werden \u2013 erst im Zusammenspiel liefern sie ein vollst\u00e4ndigeres Bild der tats\u00e4chlichen Bildqualit\u00e4t.<\/p>\n\n\n\n<div style=\"height:50px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n<\/div>\n\n\n\n<div>\n<div style=\"height:50px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<h3 class=\"wp-block-heading\">Code Beispiele (Python)<\/h3>\n\n\n\n<pre class=\"wp-block-code has-medium-font-size\"><code>import cv2\nfrom skimage.metrics import structural_similarity as ssim\n\ndef compute_ssim(img1, img2):\n    gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY)\n    gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY)\n\n    score, _ = ssim(gray1, gray2, full=True)\n    return score<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code has-medium-font-size\"><code>import numpy as np\nfrom skimage.metrics import mean_squared_error as mse\n\ndef compute_psnr(img1, img2):\n    mse_val = mse(img1, img2)\n    if mse_val == 0:\n        return float('inf')\n    return 20 * np.log10(255.0 \/ np.sqrt(mse_val))<\/code><\/pre>\n\n\n\n<h3 class=\"wp-block-heading\">Funktionen (MatLab)<\/h3>\n\n\n\n<p>Auch in MatLab gibt es bereits fertige Implementierungen der vorgestellten Bildmetriken: <\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><a href=\"https:\/\/www.mathworks.com\/help\/images\/ref\/immse.html\" target=\"_blank\" rel=\"noreferrer noopener\">Mean Squared Error<\/a><\/li>\n\n\n\n<li><a href=\"http:\/\/www.mathworks.com\/help\/images\/ref\/psnr.html\" target=\"_blank\" rel=\"noreferrer noopener\">Peak Signal to Noise Ratio<\/a><\/li>\n\n\n\n<li><a href=\"http:\/\/www.mathworks.com\/help\/images\/ref\/ssim.html\" target=\"_blank\" rel=\"noreferrer noopener\">Structural Similarity Index Measure<\/a><\/li>\n<\/ul>\n<\/div>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>Digitale Bilder spielen in vielen Gesch\u00e4ftsprozessen eine zentrale Rolle \u2013 von der Qualit\u00e4tskontrolle in der Produktion \u00fcber Produktbilder im E-Commerce bis hin zur automatisierten Auswertung durch Machine-Learning-Modelle. Doch sobald Bilder ver\u00e4ndert, komprimiert oder durch Algorithmen verarbeitet werden, stellt sich eine zentrale Frage: Wie l\u00e4sst sich die Bildqualit\u00e4t objektiv messen?<\/p>","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_kad_post_transparent":"","_kad_post_title":"","_kad_post_layout":"","_kad_post_sidebar_id":"","_kad_post_content_style":"","_kad_post_vertical_padding":"","_kad_post_feature":"","_kad_post_feature_position":"","_kad_post_header":false,"_kad_post_footer":false,"_kad_post_classname":"","footnotes":""},"categories":[13],"tags":[],"class_list":["post-1829","post","type-post","status-publish","format-standard","hentry","category-bildverarbeitung"],"_links":{"self":[{"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/posts\/1829","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/comments?post=1829"}],"version-history":[{"count":152,"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/posts\/1829\/revisions"}],"predecessor-version":[{"id":1997,"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/posts\/1829\/revisions\/1997"}],"wp:attachment":[{"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/media?parent=1829"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/categories?post=1829"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/katharina-schmidt-engineering.de\/en\/wp-json\/wp\/v2\/tags?post=1829"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}