Au début de son histoire, avant de devenir une industrie, Hollywood était vu comme un éden pour les femmes, un lieu où elles pouvaient exercer des métiers de pouvoir et où elles étaient payées autant voire mieux que les hommes. Une situation qui ne tardera pas à changer. Radicalement.

