Alle Artikel mit dem Schlagwort: Geschichte

Hitlers Hollywood – Eine Geschichte des deutschen Films

Mit einem reißerisch anmutenden Titel wird ein dokumentarisches Portrait des deutschen Films vom Zerfall der Weimarer Republik bis zum Untergang des Dritten Reichs ge­zeich­net. Dieser Zeitraum geht einher mit der vollständigen Dekadenz einer hinsichtlich Inno­vation und Fortschritt einst welt­führen­den Institution kultureller Produktion. Wel­che Rolle hatte der deutsche Schau­spiel­film als Propagandamittel und warum konnte er vermutlich dadurch bis heute nie an seinen ehemals progressiven und...

Kommentare 0
Artikel, Film