Duden - Das Bedeutungswörterbuch
Anatomie
Ana|to|mie [anato'mi:], die; -:a) Lehre, Wissenschaft von Form und Aufbau des Körpers:
Anatomie studieren.
b) Aufbau, Struktur des Körpers:
die Anatomie des menschlichen Körpers.
Sie können einen Link zu dem Wort setzen

Ansicht: Anatomie