Wird Deutschland rechter?

Das Ergebnis basiert auf 33 Abstimmungen

Deutschland wird rechter 73%
Deutschland wird nicht rechter 27%
LuiseLove01  20.01.2024, 00:44

Schwarz Weiß Rote Beflaggung in der Nachbarschaft, wo? Im Paulanergarten?

hansa6565 
Fragesteller
 20.01.2024, 00:44

Ostdeutschland

9 Antworten

Deutschland wird rechter

Einige Länder tendieren seit geraumer Zeit in die rechte Richtung. Das passiert mMn immer, wenn die Zustände u Bedingungen in einem Land es notwendig machen.

Deutschland wird rechter

Es gibt kein "Deutschland" sondern nur einen Staat namens "Bundesrepublik Deutschland".

Und ja, natürlich wird dieser Staat aktuell rechter.

ABER: Da der Staat aktuell politisch ganz weit links verortet ist, bedeutet "rechter" werden tatsächlich ein "sich zubewegen" auf die politische Mitte ;-)

Denn es ist immer eine Frage des Standpunktes.

Woher ich das weiß:eigene Erfahrung – Das Leben war eine harte Schule!
Deutschland wird nicht rechter

Die Rechtspopulisten werden immer Schamloser. Und nehmen Wähler von der Union weg. Die ist auch rechts.

Deutschland wird rechter

Ich kenne viele Leute die ursprünglich links waren und im Laufe der letzten Jahre rechts geworden sind und ich selbst gehöre auch dazu.

Und ja, die Angst vor dem Kaiserreich oder der NS-Zeit ist uns auch abhanden gekommen, während das Interesse stieg uns über die Mainstream Narrative hinaus damit zu befassen.

Dies ist allerdings eher der Medienvielfalt zu verdanken, als der AFD. Die Meisten stoßen einfach irgendwann auf Kanäle wie 100% real podcast, KenFM, Nuoviso. Die sind im Mainstream noch recht bekannt und teilweise auch beliebt.

Obwohl diese Kanäle immernoch als links gelten, bieten sie durchaus auch viel Inspiration selbstständig tiefer in den Kaninenbau zu steigen. Und da kann man dann bei ganz verschiedenen Dingen wieder rauskommen. Manche verirren sich dann leider aber natürlich auch bei den Flacherdlern und co.

Deutschland wird nicht rechter

Nicht rechter als zur Zeit des Nationalsozialismus.