Le management au féminin séduit de plus en plus

Les hommes restent majoritaires en tant que managers dans les entreprises, toutefois, on commence à remarquer que les femmes le deviennent de plus en plus. Est-ce une bonne chose ? Les faits montrent que l’avènement de plus en plus de femmes à la tête des entreprises changent peu à peu la manière de diriger. Tout porte à croire que les femmes possèdent des valeurs, innées ou acquises, qui les rendent meilleures en termes de management. Même les hommes en sont séduits, mais dans tous les cas, les entreprises qui leur donnent cette place le confirment. Et ces entreprises en sortent gagnantes. Que dit le public à ce sujet ?

Lire la suite