Duden ‒ Das große Wörterbuch der deutschen Sprache
feminieren
fe|mi|nie|ren [zu lateinisch femina, ↑ "feminin"] (Medizin, Zoologie):(von Männern bzw. männlichen Tieren) infolge eines Eingriffs in den Hormonhaushalt, einer bestimmten Krankheit, einer Kastration o. Ä. ↑ "verweiblichen" (1).
Sie können einen Link zu dem Wort setzen

Ansicht: feminieren