Was sind die Vorteile, die man hat, wenn man ein Studium in Deutschland absolviert? Spielt es eine große Rolle, eurer Meinung nach? Nicht besonders bezüglich des Verdienens, sondern wie man mit gesellschaftlich mit Leuten besser umgeht bzw. versteht. Ich habe Interesse an viele allgemeinen Begriffe, von Naturwissenschaften bis zur Politik, Literatur, und Geschichte. Aber ich kenne mich nur gut mit diesen Sachen im Englischen aus, nicht im Deutschen.
Ich bin Amerikaner, der sich selbst Deutsch beigebracht hat. Ich wohne nur 1 Jahr halb in Deutschland. Ich habe schon einen amerikanischen Uni-Abschluss und arbeite zurzeit als Informatiker. Aber nichtsdestotrotz will wieder vom Beginn als erwachsener in Deutschland anfangen.
Bin ziemlich sehr von deutscher Sprache und Kultur fasziniert, besonders von Philosophen und Dichtern. Deswegen will ich von Grund auf ein deutsches Studium absolvieren. Ich habe vor, mich bei der ILS (Institut für Lernsysteme) anmelden und mit der Hauptschule anfangen und bis zum Abitur und Realschule teilnehmen.