Die USA – weltweit führend
Während die USA sich selbst als das beste – manchmal auch als das einzige – Land der Welt bezeichnen, lohnt es sich zu untersuchen, wie sehr diese Selbsteinschätzung sich mit der Realität deckt.
Die USA sehen sich gerne als den Befreier der westlichen Welt. Eine Rolle, die im Zweiten Weltkrieg entstanden ist. Doch warum erfahren amerikanische Kinder nur sehr wenig über die Verbrechen ihrer Vorfahren?