naturismo
m. Doctrina que preconiza el empleo de medios naturales para conservar la salud y tratar las enfermedades. El contacto con la naturaleza es uno de los fundamentos del naturismo.

Diccionario del estudiante
Real Academia Española © Todos los derechos reservados

cerrar

Buscador general de la RAE

cerrar

Diccionarios

Dudas rápidas