m. Doctrina que preconiza el empleo de medios naturales para conservar la salud y tratar las enfermedades. El contacto con la naturaleza es uno de los fundamentos del naturismo.
Diccionario del estudiante
Real Academia Española © Todos los derechos reservados