La place des femmes dans les rôles principaux à Hollywood s'est améliorée en 2019 selon une étude