Duden - Das große Wörterbuch der deutschen Sprache in 10 Bänden
feminieren
fe|mi|nie|ren [zu lat. femina, ↑"feminin"] (Med., Zool.): (von Männern bzw. männlichen Tieren) infolge eines Eingriffs in den Hormonhaushalt, einer bestimmten Krankheit, einer Kastration o. Ä. ↑"verweiblichen" (1).
Sie können einen Link zu dem Wort setzen

Ansicht: feminieren