Hitler hat verloren.

aprilzi, tiefster Balkan, Sonntag, 26.01.2025, 01:51 (vor 13 Tagen) @ BerndBorchert1257 Views
bearbeitet von aprilzi, Sonntag, 26.01.2025, 02:10

Hi,

der Kampf, den Krieg den er anfing, zeigt sich jetzt, dass er endgültig verloren hat. Der Westen hat Deutschland verarscht. USA haben Deutschland ohne günstigen Gasreserven gelassen. Die grüne Politik bedeutet den Untergang Deutschlands.
Ohne Gas und Atomenergie ist das Ende nahe. USA und Russland arbeiten zusammen, um Deutschland in die Bedeutungslosigkeit zu schicken. Der Ukraine-Krieg hat es gezeigt. Die Ukraine wird fallen gelassen, damit wird auch Deutschland abstürzen. Der Test war die Ukraine, voll von Nazis beherrscht. Damit war der Test nicht bestanden.

Russland wird die Ukraine einverleiben. Deutschland wird muslimisch und unbedeutend, der Westen ebenso.
Die USA werden sich retten. Zumindest Trump versucht es.

Gruß


gesamter Thread:

RSS-Feed dieser Diskussion

Werbung