JE RECHERCHE

Les États-Unis sont plus français que vous ne le croyez...

Comment la France a-t-elle façonné le paysage culturel et politique de l'Amérique ?

Les États-Unis sont plus français que vous ne le croyez...
Anterior Seguinte

© Shutterstock

StarsInsider
02/05/2024 09:00 ‧ il y a 1 an | StarsInsider

LIFESTYLE

France

Saviez-vous que la France a joué un rôle déterminant dans l'issue de la guerre d'Indépendance américaine ? Ou que plusieurs capitales d'États américains doivent leur nom à des explorateurs français ? D'accord, les frites que les amércains appellent "French fries" n'ont de français que le nom. Mais l'un des monuments les plus emblématiques d'Amérique a été offert par le peuple français au peuple américain.

Parcourez la galerie et découvrez comment un pays d'Europe a influencé le paysage culturel et politique de l'Amérique.

PARTAGER CET ARTICLE

NOS RECOMMANDATIONS