Ich habe mal eine Frage und zwar: Wieso ist Fussball so wichtig in Deutschland/ für die Deutschen? Also ich meine in D ist Fussball mehr als nur Fussball habe ich mir sagen lassen und auf mich wirkt es auch so. Es kommt mir fast so vor als gehe es nicht um Fussball sondern um einen Weltkrieg, so wichtig ist das für viele. Meine Frage jetzt: Wieso ist das so? Wir haben in CH auch Fussballfans aber ich denke die sind nicht so extrem wie in D und vorallem bei uns ist es nicht so wichtig.
Ich möchte das ganze Sachlich behandeln und im allgemeinen, nicht unbedingt im Bezug auf den WM Titel. Es soll auch KEINE abwertung von Fussball oder so sein sonder einfach eine Frage!