Duden ‒ Das große Wörterbuch der deutschen Sprache
Anatomie
Ana|to|mie, die; -, -n [spätlateinisch anatomia < griechisch anatomi̓a, zu: anatémnein = aufschneiden; sezieren]:1.
a) Wissenschaft vom Bau des [menschlichen] Körpers und seiner Organe:
systematische, topografische, pathologische, vergleichende Anatomie;
b) Aufbau, Struktur des [menschlichen] Körpers:
die Anatomie des Menschen, der Hauskatze;
die weibliche, männliche Anatomie;
Ü Diese Unterlagen ermöglichen es …, die Anatomie einer Wochenschau zu studieren (Enzensberger, Einzelheiten I, 107).
2. anatomisches Institut:
eine Leiche an die Anatomie geben;
Ich habe einen Freund gehabt …, der war bei der Anatomie bedienstet (Werfel, Himmel 18).
3. Lehrbuch der Anatomie (1).
Sie können einen Link zu dem Wort setzen

Ansicht: Anatomie