Anatomen?
Was ist mit Anatomen passiert? Ist dieser Begriff ausgestorben oder dieser Beruf oder ist Anatomie ein Fach in einem anderen Bereich geworden?
2 Antworten
Die Anatomie ist ein Teilgebiet der Medizin bzw. Humanbiologie, Zoologie und Botanik: die Lehre vom inneren Bau biologischer Organismen. Es werden Gestalt, Lage und Struktur von Körperteilen, Organen, Geweben oder Zellen betrachtet.
Als Anatom bezeichnet man
- einen Wissenschaftler, der die Anatomie (den Aufbau des Körpers von Lebewesen) untersucht, oder:
- Anatom (Insel), eine Vulkaninsel im südwestlichen Pazifik
Quelle: Wikipedia
Was ist mit Anatomen passiert?
was soll mit denen sein?
Die arbeiten halt - wie immer - in der Anatomie, z.B. in der Forschung sowie in der Ausbildung von (angehenden) Ärzten.
Hmm, Die Berufsbezeichung der Anatomen ist weiterhin "Anatom(in)", und so haben wir auch die Ärzte bezeichnet, die uns im Studium das Fach Anatomie (mikro- als auch makro) nahegebracht haben.
Was hierbei Wikipedia für eine Rolle spielen sollte, ist mir nicht klar.
Und Anatomen laufen halt i.d.R. nicht mit Klamotten mit Aufdruck "Isch bin ein Anatom" o.ä. rum - zudem gibt es davon nicht so sehr viele (aktuell wohl gerade mal 188):
Die Frage ist warum spricht man heutzutage nicht von Anatomen Punkt anatome ist der Begriff ausgestorben? Benutzt man diesen Begriff im deutschen jetzt nicht mehr oder warum sind alle die ich auf Wikipedia oder google finde Leute aus dem letzten Jahrhundert?