Also das Wort heißt "gendern" und ist ne eingedeutsches Wort, das es so nicht gibt. Es kommt vom englischen Wort gender =Geschlecht. Es geht darum, dass versucht wird alle "männlichen" Begriffe oder Wörter mit der weibliche Form zu ergänzen. Das soll so für Gleichberechtigung sorgen.
Ich persönlich finde das teilweise unsinnig. Wenn ich sage, dass ich zum Arzt gehe ist das einfach als Bezeichnung für den Beruf allgemein gemeint, ich will damit nicht Frauen diskriminieren nur weil ich nicht sage, dass ich in Wahrheit zu einer Ärztin gehe