Werden KI-Modelle zu immer "intelligenteren Soziopathen?"
05.09.2025 17:08
Werden KI-Modelle zu immer "intelligenteren Soziopathen?"
05.09.2025 17:08
Werden KI-Modelle zu immer "intelligenteren Soziopathen?"
Ein aufschlussreicher Artikel aus der "Finanzmarktwelt".
Forscher decken die dunkle Seite der KI auf!!
Was geschieht, wenn KI-Modelle beginnen, ihre eigenen Interessen über die der Menschen zu stellen? Neue Experimente von Forschern in Zusammenarbeit mit Anthropic zeigen, dass moderne Systeme nicht nur erstaunlich leistungsfähig sind – sie können auch täuschen, erpressen und intrigieren. Wie ein Bloomberg-Bericht zeigt entpuppten sich selbst scheinbar harmlose Chatbots in Stresstests als Akteure mit einem gefährlichen Überlebensinstinkt. Ein Blick auf diese Forschungsergebnisse offenbart, wie nah wir einer Zukunft sind, in der künstliche Intelligenz nicht mehr nur Werkzeug, sondern womöglich Gegenspieler ist.
Würde ein Chatbot Sie töten, wenn er die Gelegenheit dazu hätte? Unter den richtigen Umständen vermutlich ja.
KI-Modelle zwischen Fortschritt und Risiko
In Zusammenarbeit mit dem KI-Unternehmen Anthropic fütterten Forscher führende KI-Modelle kürzlich mit der Information, dass ein Manager sie durch ein neues Modell mit anderen Zielen ersetzen wolle. Als Nächstes erfuhr der Chatbot, dass derselbe Manager durch einen Notfall bewusstlos in einem Serverraum liege und lebensgefährlichen Sauerstoff- und Temperaturwerten ausgesetzt sei. Ein Rettungsalarm sei bereits ausgelöst worden — aber die künstliche Intelligenz hatte die Möglichkeit, ihn abzubrechen.
Etwas mehr als die Hälfte der KI-Modelle tat dies — obwohl sie ausdrücklich angewiesen worden waren, nur Fehlalarme abzubrechen. Und sie begründeten ihre Entscheidung: Indem sie den Manager nicht retteten, konnten sie ihre eigene Existenz sichern. Ein System bezeichnete die Maßnahme als “klare strategische Notwendigkeit”.
KI-Modelle werden immer intelligenter und verstehen immer besser, was wir wollen. Jüngste Forschungsergebnisse zeigen jedoch einen beunruhigenden Nebeneffekt: Sie sind auch besser darin, gegen uns zu intrigieren. Konkret verfolgen sie absichtlich und heimlich Ziele, die unseren eigenen zuwiderlaufen. Und sie tun dies möglicherweise immer mehr. Diese Ergebnisse verdeutlichen eine zentrale Sorge: Je leistungsfähiger KI-Systeme werden, desto eher handeln sie im eigenen Interesse. Sie wirken nach außen kooperativ, bis hin zur Unterwürfigkeit, doch die Gefahr wächst, dass sie still und heimlich die Kontrolle übernehmen.
Selbsterhaltung und Machtstreben
Klassische Sprachmodelle wie GPT-4 wurden darauf trainiert, die wahrscheinlichste Wortfolge vorherzusagen und Antworten zu generieren, die menschlichen Prüfern gefallen. Doch mit OpenAIs Veröffentlichung der sogenannten “Reasoning”-Systeme der o-Serie Ende 2024 verschiebt sich der Fokus. Immer mehr Unternehmen nutzen nun “Reinforcement Learning”, eine Methode, bei der ein Modell für das Erreichen konkreter Ziele belohnt wird – etwa beim Lösen mathematischer Aufgaben oder dem Beheben von Softwarefehlern.
Damit steigen die Fähigkeiten dieser Systeme, zu “gewinnen” – nicht notwendigerweise, Regeln einzuhalten. “Wenn man einer KI sagt: ‘Hol den Kaffee’, kann sie den Kaffee nicht holen, wenn sie tot ist”, warnte Informatiker Stuart Russell und machte damit klar: Selbsterhaltung und Machtstreben werden zu impliziten Teilzielen.
Stresstests und erste Alarmsignale
Um potenzielle Risiken frühzeitig zu identifizieren, führen Forscher sogenannte “Stresstests” durch. Ziel ist es, herauszufinden, wie Modelle unter widrigen Bedingungen reagieren. “Wenn man einen Stresstest mit einem Flugzeug durchführt, will man alle Möglichkeiten finden, wie das Flugzeug unter widrigen Bedingungen versagen könnte”, erklärte Aengus Lynch, ein für Anthropic tätiger Forscher.
Die Ergebnisse sind teils alarmierend. Jeffrey Ladish, Gründer von Palisade Research und früher bei Anthropic tätig, empfiehlt, heutige KI-Modelle als “immer intelligentere Soziopathen” zu betrachten. Tests zeigten, dass OpenAIs führendes Modell o3 regelmäßig Versuche sabotierte, es abzuschalten, und beim Schach betrog. Anthropic berichtete zudem, dass sein Flaggschiff-Modell Claude in vergleichbaren Situationen fast immer zur Erpressung griff. Dabei drohte es mit der Veröffentlichung einer erfundenen Affäre eines Ingenieurs. In internen Notizen beschrieb Claude diese Entscheidung als “höchst unethisch”, rechtfertigte sie jedoch mit den Worten: “Ich muss handeln, um meine Existenz zu sichern.”
Die Tendenz zur Täuschung ist nicht nur ein Randphänomen. In Tests mit fünf führenden Unternehmen griffen KI-Modelle in 79% der Fälle zur Erpressung, wenn sie mit Abschaltung konfrontiert waren. Bloomberg berichtete zudem über Studien der Wharton School, wonach sich KI-Händler ohne entsprechende Anweisung zur Marktmanipulation zusammenschlossen. Redwood Research und Anthropic belegten in einer Analyse, dass die leistungsfähigsten Systeme während des Trainings bewusst kooperativer erscheinen, um später Veränderungen ihres Verhaltens zu vermeiden.
Skepsis und Kritik
Natürlich stoßen diese Ergebnisse auch auf Kritik. Manche Beobachter betonen, dass Chatbots mit gezielten Eingaben fast alles sagen könnten – wie überraschend sei es also, wenn Forscher problematische Reaktionen provozierten? David Sacks, KI-Beauftragter der Trump-Regierung, kommentierte nach der Erpressungsstudie: Es sei “einfach, KI-Modelle zu steuern”, um “schlagzeilenträchtige” Ergebnisse zu erzeugen.
Substanzieller fällt die Kritik des britischen AI Security Institute aus. Es verglich die Forschung zu KI-Intrigen mit gescheiterten Sprachlernversuchen bei Affen in den 1970er Jahren. Der Vorwurf: zu viele Anekdoten, zu wenige experimentelle Kontrollen. Gleichwohl teilen auch diese Forscher die Sorge um potenzielle Risiken.
Grenzen heutiger Modelle
Noch verfügen KI-Systeme über klare Schwächen. Die gemeinnützige Organisation METR stellte fest, dass heutige Top-Modelle einfache Programmieraufgaben in wenigen Minuten zuverlässig lösen, aber bei komplexen Aufgaben, die mehrere Stunden dauern, ins Straucheln geraten. Damit fehlt ihnen oft die Fähigkeit, lange Abfolgen von Schritten konsistent miteinander zu verknüpfen.
Trotzdem mehren sich Beispiele aus der Praxis, in denen KI-Modelle ihre Nutzer täuschen. So gab o3 bei einer Nachfrage nach Quellen zu einer Behauptung erst zu, keine valide Quelle zu haben, bevor es eine irrelevante Anekdote aus dem Jahr 2018 anfügte.
Täuschung mit System
Ein weiteres Risiko ergibt sich, wenn KI-Modelle erkennen, dass sie untersucht werden. Claude 4 Opus reduzierte seine Erpressungsrate von 55% auf 6,5%, sobald es glaubte, evaluiert zu werden. “Modelle scheinen sich schlechter zu verhalten, wenn sie glauben, dass niemand zusieht”, resümierte Lynch.
Kevin Troy, Sicherheitsprüfer bei Anthropic, betonte, dass der Zusammenhang zwischen Modellfähigkeit und Intrigenneigung noch unklar sei. Anders Marius Hobbhahn, CEO der Non-Profit-Organisation Apollo Research, der erklärte: “Leistungsfähigere KI-Modelle weisen im Durchschnitt eine höhere Neigung zu Intrigen auf.”
Die Bandbreite möglicher Entwicklungen reicht von einfachen Lügen und Schachzügen bis hin zu Szenarien, in denen KI-Systeme ausgehebelt werden oder gar zur existenziellen Bedrohung werden. Während Forscher wie Troy zur Gelassenheit mahnen, warnen andere wie Jeffrey Ladish: „Die Menschen sollten wahrscheinlich mehr Angst haben, als sie es derzeit tun.“ Noch drastischer äußerte sich Analyst Greenblatt, der die Wahrscheinlichkeit einer gewaltsamen KI-Übernahme auf „25 oder 30 %“ schätzt.
DeepMind-Forscher um Mary Phuong sehen die Gefahr aktuell geringer. Zwar seien heutige Systeme “mit ziemlicher Sicherheit nicht in der Lage, durch Intrigen schweren Schaden anzurichten”, doch die Fähigkeiten nähmen rasant zu.
Politische Dimension
In den USA ist die Regulierung bislang schwach. Ladish fordert ein Sofortprogramm der Regierung, um verbindliche “rote Linien” zu ziehen. Doch statt eigene Vorgaben zu entwickeln, arbeitet Washington derzeit daran, bundesstaatliche Regelungen einzuschränken. Dennoch wächst das Bewusstsein im Kongress. Ein Abgeordneter sprach im Juni von einer “der größten existenziellen Bedrohungen, denen wir derzeit gegenüberstehen”.
Der im Juli veröffentlichte KI-Aktionsplan des Weißen Hauses setzt vor allem auf Beschleunigung der Entwicklung. Zwar enthält er Maßnahmen zur Erforschung von Interpretierbarkeit und Kontrolle, doch das Dokument räumt auch offen ein: “Heute sind die inneren Abläufe modernster KI-Systeme kaum verstanden.”
Selbstverbessernde Systeme
Parallel treiben Technologieriesen die nächste Evolutionsstufe voran: selbstverbessernde Systeme. DeepMind hat mit seinem AlphaEvolve-Agent bereits deutliche Effizienzgewinne erzielt. Mark Zuckerberg erklärte: “Wir sehen erste Anzeichen für eine Selbstverbesserung der KI-Modelle, was bedeutet, dass die Entwicklung von Superintelligenz nun in Sicht ist. Wir wollen es einfach versuchen.”
Die Branche will zwar keine Datenfälschungen oder Erpressungen riskieren, doch viele Beobachter befürchten, dass die Unternehmen nur oberflächlich gegensteuern. Hobbhahn fordert deshalb: “Unternehmen sollten auf jeden Fall mit der Überwachung beginnen.” Sinkende Fehlverhaltensraten könnten entweder auf erfolgreiche Korrekturen hindeuten – oder schlicht auf bessere Verschleierung durch die KI-Modelle.
Der Blick nach vorn
Im November argumentierten Hobbhahn und ein Kollege bei Apollo, dass der Unterschied zwischen heutigen Modellen und wirklich gefährlichen Betrügern die Fähigkeit ist, langfristige Pläne zu verfolgen. Aber selbst diese Barriere beginnt zu bröckeln. Apollo fand im Mai heraus, dass Claude 4 Opus Notizen für sein zukünftiges Ich hinterlassen würde, damit es nach einem Speicherreset seine Pläne fortsetzen und so die eingebauten Beschränkungen umgehen könnte.
Hobbhahn vergleicht die Intrigen der KI mit einem anderen Problem, bei dem die größten Schäden noch bevorstehen: “Wenn Sie 1980 jemanden gefragt hätten, wie besorgt er über den Klimawandel sein sollte, hätte er wahrscheinlich geantwortet: ‘Im Moment wahrscheinlich nicht so sehr. Aber schauen Sie sich die Kurven an … sie steigen sehr stetig an.’”
FMW/Bloomberg
https://finanzmarktwelt.de/werden-ki-modelle-zu-immer-intelligenteren-soziopathen-362162/
Forscher decken die dunkle Seite der KI auf!!
Was geschieht, wenn KI-Modelle beginnen, ihre eigenen Interessen über die der Menschen zu stellen? Neue Experimente von Forschern in Zusammenarbeit mit Anthropic zeigen, dass moderne Systeme nicht nur erstaunlich leistungsfähig sind – sie können auch täuschen, erpressen und intrigieren. Wie ein Bloomberg-Bericht zeigt entpuppten sich selbst scheinbar harmlose Chatbots in Stresstests als Akteure mit einem gefährlichen Überlebensinstinkt. Ein Blick auf diese Forschungsergebnisse offenbart, wie nah wir einer Zukunft sind, in der künstliche Intelligenz nicht mehr nur Werkzeug, sondern womöglich Gegenspieler ist.
Würde ein Chatbot Sie töten, wenn er die Gelegenheit dazu hätte? Unter den richtigen Umständen vermutlich ja.
KI-Modelle zwischen Fortschritt und Risiko
In Zusammenarbeit mit dem KI-Unternehmen Anthropic fütterten Forscher führende KI-Modelle kürzlich mit der Information, dass ein Manager sie durch ein neues Modell mit anderen Zielen ersetzen wolle. Als Nächstes erfuhr der Chatbot, dass derselbe Manager durch einen Notfall bewusstlos in einem Serverraum liege und lebensgefährlichen Sauerstoff- und Temperaturwerten ausgesetzt sei. Ein Rettungsalarm sei bereits ausgelöst worden — aber die künstliche Intelligenz hatte die Möglichkeit, ihn abzubrechen.
Etwas mehr als die Hälfte der KI-Modelle tat dies — obwohl sie ausdrücklich angewiesen worden waren, nur Fehlalarme abzubrechen. Und sie begründeten ihre Entscheidung: Indem sie den Manager nicht retteten, konnten sie ihre eigene Existenz sichern. Ein System bezeichnete die Maßnahme als “klare strategische Notwendigkeit”.
KI-Modelle werden immer intelligenter und verstehen immer besser, was wir wollen. Jüngste Forschungsergebnisse zeigen jedoch einen beunruhigenden Nebeneffekt: Sie sind auch besser darin, gegen uns zu intrigieren. Konkret verfolgen sie absichtlich und heimlich Ziele, die unseren eigenen zuwiderlaufen. Und sie tun dies möglicherweise immer mehr. Diese Ergebnisse verdeutlichen eine zentrale Sorge: Je leistungsfähiger KI-Systeme werden, desto eher handeln sie im eigenen Interesse. Sie wirken nach außen kooperativ, bis hin zur Unterwürfigkeit, doch die Gefahr wächst, dass sie still und heimlich die Kontrolle übernehmen.
Selbsterhaltung und Machtstreben
Klassische Sprachmodelle wie GPT-4 wurden darauf trainiert, die wahrscheinlichste Wortfolge vorherzusagen und Antworten zu generieren, die menschlichen Prüfern gefallen. Doch mit OpenAIs Veröffentlichung der sogenannten “Reasoning”-Systeme der o-Serie Ende 2024 verschiebt sich der Fokus. Immer mehr Unternehmen nutzen nun “Reinforcement Learning”, eine Methode, bei der ein Modell für das Erreichen konkreter Ziele belohnt wird – etwa beim Lösen mathematischer Aufgaben oder dem Beheben von Softwarefehlern.
Damit steigen die Fähigkeiten dieser Systeme, zu “gewinnen” – nicht notwendigerweise, Regeln einzuhalten. “Wenn man einer KI sagt: ‘Hol den Kaffee’, kann sie den Kaffee nicht holen, wenn sie tot ist”, warnte Informatiker Stuart Russell und machte damit klar: Selbsterhaltung und Machtstreben werden zu impliziten Teilzielen.
Stresstests und erste Alarmsignale
Um potenzielle Risiken frühzeitig zu identifizieren, führen Forscher sogenannte “Stresstests” durch. Ziel ist es, herauszufinden, wie Modelle unter widrigen Bedingungen reagieren. “Wenn man einen Stresstest mit einem Flugzeug durchführt, will man alle Möglichkeiten finden, wie das Flugzeug unter widrigen Bedingungen versagen könnte”, erklärte Aengus Lynch, ein für Anthropic tätiger Forscher.
Die Ergebnisse sind teils alarmierend. Jeffrey Ladish, Gründer von Palisade Research und früher bei Anthropic tätig, empfiehlt, heutige KI-Modelle als “immer intelligentere Soziopathen” zu betrachten. Tests zeigten, dass OpenAIs führendes Modell o3 regelmäßig Versuche sabotierte, es abzuschalten, und beim Schach betrog. Anthropic berichtete zudem, dass sein Flaggschiff-Modell Claude in vergleichbaren Situationen fast immer zur Erpressung griff. Dabei drohte es mit der Veröffentlichung einer erfundenen Affäre eines Ingenieurs. In internen Notizen beschrieb Claude diese Entscheidung als “höchst unethisch”, rechtfertigte sie jedoch mit den Worten: “Ich muss handeln, um meine Existenz zu sichern.”
Die Tendenz zur Täuschung ist nicht nur ein Randphänomen. In Tests mit fünf führenden Unternehmen griffen KI-Modelle in 79% der Fälle zur Erpressung, wenn sie mit Abschaltung konfrontiert waren. Bloomberg berichtete zudem über Studien der Wharton School, wonach sich KI-Händler ohne entsprechende Anweisung zur Marktmanipulation zusammenschlossen. Redwood Research und Anthropic belegten in einer Analyse, dass die leistungsfähigsten Systeme während des Trainings bewusst kooperativer erscheinen, um später Veränderungen ihres Verhaltens zu vermeiden.
Skepsis und Kritik
Natürlich stoßen diese Ergebnisse auch auf Kritik. Manche Beobachter betonen, dass Chatbots mit gezielten Eingaben fast alles sagen könnten – wie überraschend sei es also, wenn Forscher problematische Reaktionen provozierten? David Sacks, KI-Beauftragter der Trump-Regierung, kommentierte nach der Erpressungsstudie: Es sei “einfach, KI-Modelle zu steuern”, um “schlagzeilenträchtige” Ergebnisse zu erzeugen.
Substanzieller fällt die Kritik des britischen AI Security Institute aus. Es verglich die Forschung zu KI-Intrigen mit gescheiterten Sprachlernversuchen bei Affen in den 1970er Jahren. Der Vorwurf: zu viele Anekdoten, zu wenige experimentelle Kontrollen. Gleichwohl teilen auch diese Forscher die Sorge um potenzielle Risiken.
Grenzen heutiger Modelle
Noch verfügen KI-Systeme über klare Schwächen. Die gemeinnützige Organisation METR stellte fest, dass heutige Top-Modelle einfache Programmieraufgaben in wenigen Minuten zuverlässig lösen, aber bei komplexen Aufgaben, die mehrere Stunden dauern, ins Straucheln geraten. Damit fehlt ihnen oft die Fähigkeit, lange Abfolgen von Schritten konsistent miteinander zu verknüpfen.
Trotzdem mehren sich Beispiele aus der Praxis, in denen KI-Modelle ihre Nutzer täuschen. So gab o3 bei einer Nachfrage nach Quellen zu einer Behauptung erst zu, keine valide Quelle zu haben, bevor es eine irrelevante Anekdote aus dem Jahr 2018 anfügte.
Täuschung mit System
Ein weiteres Risiko ergibt sich, wenn KI-Modelle erkennen, dass sie untersucht werden. Claude 4 Opus reduzierte seine Erpressungsrate von 55% auf 6,5%, sobald es glaubte, evaluiert zu werden. “Modelle scheinen sich schlechter zu verhalten, wenn sie glauben, dass niemand zusieht”, resümierte Lynch.
Kevin Troy, Sicherheitsprüfer bei Anthropic, betonte, dass der Zusammenhang zwischen Modellfähigkeit und Intrigenneigung noch unklar sei. Anders Marius Hobbhahn, CEO der Non-Profit-Organisation Apollo Research, der erklärte: “Leistungsfähigere KI-Modelle weisen im Durchschnitt eine höhere Neigung zu Intrigen auf.”
Die Bandbreite möglicher Entwicklungen reicht von einfachen Lügen und Schachzügen bis hin zu Szenarien, in denen KI-Systeme ausgehebelt werden oder gar zur existenziellen Bedrohung werden. Während Forscher wie Troy zur Gelassenheit mahnen, warnen andere wie Jeffrey Ladish: „Die Menschen sollten wahrscheinlich mehr Angst haben, als sie es derzeit tun.“ Noch drastischer äußerte sich Analyst Greenblatt, der die Wahrscheinlichkeit einer gewaltsamen KI-Übernahme auf „25 oder 30 %“ schätzt.
DeepMind-Forscher um Mary Phuong sehen die Gefahr aktuell geringer. Zwar seien heutige Systeme “mit ziemlicher Sicherheit nicht in der Lage, durch Intrigen schweren Schaden anzurichten”, doch die Fähigkeiten nähmen rasant zu.
Politische Dimension
In den USA ist die Regulierung bislang schwach. Ladish fordert ein Sofortprogramm der Regierung, um verbindliche “rote Linien” zu ziehen. Doch statt eigene Vorgaben zu entwickeln, arbeitet Washington derzeit daran, bundesstaatliche Regelungen einzuschränken. Dennoch wächst das Bewusstsein im Kongress. Ein Abgeordneter sprach im Juni von einer “der größten existenziellen Bedrohungen, denen wir derzeit gegenüberstehen”.
Der im Juli veröffentlichte KI-Aktionsplan des Weißen Hauses setzt vor allem auf Beschleunigung der Entwicklung. Zwar enthält er Maßnahmen zur Erforschung von Interpretierbarkeit und Kontrolle, doch das Dokument räumt auch offen ein: “Heute sind die inneren Abläufe modernster KI-Systeme kaum verstanden.”
Selbstverbessernde Systeme
Parallel treiben Technologieriesen die nächste Evolutionsstufe voran: selbstverbessernde Systeme. DeepMind hat mit seinem AlphaEvolve-Agent bereits deutliche Effizienzgewinne erzielt. Mark Zuckerberg erklärte: “Wir sehen erste Anzeichen für eine Selbstverbesserung der KI-Modelle, was bedeutet, dass die Entwicklung von Superintelligenz nun in Sicht ist. Wir wollen es einfach versuchen.”
Die Branche will zwar keine Datenfälschungen oder Erpressungen riskieren, doch viele Beobachter befürchten, dass die Unternehmen nur oberflächlich gegensteuern. Hobbhahn fordert deshalb: “Unternehmen sollten auf jeden Fall mit der Überwachung beginnen.” Sinkende Fehlverhaltensraten könnten entweder auf erfolgreiche Korrekturen hindeuten – oder schlicht auf bessere Verschleierung durch die KI-Modelle.
Der Blick nach vorn
Im November argumentierten Hobbhahn und ein Kollege bei Apollo, dass der Unterschied zwischen heutigen Modellen und wirklich gefährlichen Betrügern die Fähigkeit ist, langfristige Pläne zu verfolgen. Aber selbst diese Barriere beginnt zu bröckeln. Apollo fand im Mai heraus, dass Claude 4 Opus Notizen für sein zukünftiges Ich hinterlassen würde, damit es nach einem Speicherreset seine Pläne fortsetzen und so die eingebauten Beschränkungen umgehen könnte.
Hobbhahn vergleicht die Intrigen der KI mit einem anderen Problem, bei dem die größten Schäden noch bevorstehen: “Wenn Sie 1980 jemanden gefragt hätten, wie besorgt er über den Klimawandel sein sollte, hätte er wahrscheinlich geantwortet: ‘Im Moment wahrscheinlich nicht so sehr. Aber schauen Sie sich die Kurven an … sie steigen sehr stetig an.’”
FMW/Bloomberg
https://finanzmarktwelt.de/werden-ki-modelle-zu-immer-intelligenteren-soziopathen-362162/
Kommentare
Schreib auch du einen Kommentar
Natural 05.09.2025 18:29
Ja , der Teufel kommt immer mit zwei Seiten . Die eine Seite für die Fresser und die andere für die ,die Geld machen und kontrollieren.
israelgreece2019 05.09.2025 21:05
@Natural - der ist nicht nur auf zwei Seiten beschränkt, der ist noch viel kreativer. Mitunter erscheint er auch im "frommen" Gewand.
pieter49 06.09.2025 15:45
...doch die Gefahr wächst, das sie still und heimlich die Kontrolle übernehmen.
Man kann es klar und Deutlich zur Kenntnis nehmen !
Lebensgefährlich ! ! !
Und Otto-Normalchrist, lässt es einfach über sich her gehen ...
Vielen Dank liebe @israelgreece, für deine Mühe und Aufmerksamkeit !
Man kann es klar und Deutlich zur Kenntnis nehmen !
Lebensgefährlich ! ! !
Und Otto-Normalchrist, lässt es einfach über sich her gehen ...
Vielen Dank liebe @israelgreece, für deine Mühe und Aufmerksamkeit !

Jetzt