Frage von OoLolaoO 21.11.2010

Hollywood -Arts in Deutschland ?

  • Antwort von AlsterdorfKater 21.11.2010

    Fernsehserien bilden nicht unbedingt die Realität ab. Es gibt allerdings Kunsthochschulen oder z. Bsp. Schauspielschulen.

Du kennst die Antwort? Frage beantworten
Bitte noch eine Antwort ... Frage erneut stellen

Verwandte Fragen

Fragen Sie die Community –

anonym und kostenlos!