(in. Naturism; fr. Naturisme; al. Naturismus; it. Naturismo).
1. Doutrina ou crença de que a natureza é o guia infalível para a saúde física e mental do homem, e de que o homem deve “retornar” a ela em seus comportamentos e costumes, afastando-se das criações artificiais e da sociedade. Essa doutrina fundamenta muitas práticas e crenças populares do mundo contemporâneo, após ter sido doutrina filosófica no séc. XVIII (v. estado de natureza).
2. Menos propriamente: culto religioso da natureza. [Abbagnano]