Duden ‒ Das große Wörterbuch der deutschen Sprache
Dermatophyten
Der|ma|to|phy|ten [zu griechisch phytón = Pflanze] (Medizin):sich in der Haut oder den Haaren befindende, Infektionen auslösende Pilze.
Sie können einen Link zu dem Wort setzen

Ansicht: Dermatophyten