Visión del mundo y de la relación social centrada en el punto de vista masculino (androcéntrico). El androcentrismo es la tendencia a dar preferencia al hombre en la institución o tendencia a menospreciar la contribución de la mujer a la sociedad y la cultura.