Naturismo: una definizione
“Il naturismo è un modo di vivere in armonia con la natura caratterizzato dalla pratica della nudità in comune che ha lo scopo di favorire il rispetto di se stessi, il rispetto degli altri e quello dell’ambiente”.
Il naturismo è un movimento sano, pacifico, educativo, apolitico e di socializzazione, che non ha nulla a che fare con la trasgressione ma, anzi, è vissuto in un ambiente ideale per tutta la famiglia. Esso promuove la pratica della vita all’aria aperta, dell’esercizio fisico, dell’alimentazione naturale e vegetariana, della medicina naturale, la protezione dell’ambiente, della natura e degli animali; promuove inoltre la lotta contro l’inquinamento, il consumismo, l’abuso dell’alcool e l’uso del tabacco e delle sostanze stupefacenti.