Les nazis entretenaient avec la culture française un rapport ambivalent : ils y voyaient à la fois une menace, un objet de désir et un exemple digne d'émulation. L'objectif était de s'approprier cette culture, non de l'anéantir.
Dès la fin du XVIIe siècle, avec la perte d’influence italienne, la France parvient à imposer son hégémonie culturelle sur la plus grande partie de l’Europe, devenant le centre de l’art et du bon goût.