Le blanchiment de la peau est une pratique qui date des années 60. Utilisée pour des raisons esthétiques, cette pratique n’est pas sans conséquence sur la santé. ''Il faut souffrir pour être belle '' Effet de mode, goût personnel, ou contraintes imposées par leur mari, les femmes ont très souvent recours à la dépigmentation de la peau. Cette pratique est pourtant aussi dangereuse qu'elle est répandue. Pour arriver à blanchir leur peau, les femmes (mais aussi de plus en plus d'hommes) utilisent des produits décapants qui fragilisent leur peau. Non seulement ces produits provoquent des taches blanches, plaques de boutons, cicatrices et cancers mais c'est également le risque de diabète, d'insuffisance rénale ou encore d'hypertension qui se multiplie à chaque application de ces lotions. C'EST L'IGNORANCE QUI NOUS FAIT CHANGER LA COULEUR DE LA PEAU CE QUI FAUT ABSOLUMENT SAVOIR SUR SA BELLE PEAU EBE...