Cine y feminismo: mujeres detrás de las cámaras

El cine ha sido históricamente un terreno dominado por hombres, tanto en la dirección como en los papeles principales. Sin embargo, cada vez son más las mujeres que se abren camino detrás de las cámaras y luchan por una mayor igualdad de género en la industria cinematográfica. El feminismo también ha influido en el contenido de muchas películas, poniendo el foco en cuestiones relevantes para las mujeres y rompiendo con estereotipos sexistas.