Würdet ihr dieser Aussage über die US amerikanische Kultur zustimmen?
Ich habe mich mal mit einem Bekannten über die USA und deren Kultur unterhalten und da hat er eine interessante Sichtweise gezeigt, ich zitiere wörtlich: "Die Einwohner der USA die von europäischen Einwanderern abstammen haben einfach nur die europäische Kultur mit in die USA gebracht, man kann also sagen die USA haben keine eigene Kultur sondern einfach nur die europäische Kultur etwas verschnörkelt übernommen und angepasst. Die "echte" US-amerikanische Kultur ist die Kultur der Ur-Einwohner und Indianer, die heutzutage leider kaum noch repräsentiert wird". Was haltet ihr von der Aussage?