Przybywa kobiet, które nie boją się powiedzieć głośno, że nie potrzebują feminizmu. Uważają go za zbyt agresywny wobec mężczyzn. Krytykują feministki za zajmowanie się mało istotnymi sprawami. - Kobiety coraz częściej nie postrzegają mężczyzn jako wrogów. Nie chcą toczyć wojny płci – uważają specjaliści.