États-Unis - Hollywood. La place des femmes dans les rôles principaux s'est améliorée en 2019