Fußball-WM: DFB-Frauen sind raus - das sagen die Hamburger
Nach der Pleite bei der Fußball-WM der Männer sollten die Frauen den Fußball in Deutschland eigentlich rehabilitieren.
Nach der Pleite bei der Fußball-WM der Männer sollten die Frauen den Fußball in Deutschland eigentlich rehabilitieren.