¿Qué significa tener los pies en la Tierra?

Es uno de los cuatro elementos que están presentes en la mayoría de religiones y rituales. En muchas de ellas la tierra asume el papel del elemento femenino, nutricio, receptivo (La Madre Tierra).
Es el elemento que amalgama, la tierra como sostén, apoyo, que tiene que ver con el origen de la vida, con el equilibrio, proporciona estabilidad y energía.

Al igual que el resto de elementos no se puede hablar que sea ni bueno ni malo. Tiene que ver más con cómo de equilibrado está en combinación con el resto de elementos.

En cada zona de nuestro cuerpo predomina uno de los cuatro elementos (tierra, agua, fuego y aire). En el caso de la tierra, que en el cuerpo humano correspondería al sistema óseo, se encuentra mayormente representado en la zona de las piernas y caderas.
Su característica principal es su resistencia y rigidez, lo que lo convierte en el soporte del cuerpo.

Tiene que ver con el arraigo, con la manera de andar por la vida. Hace referencia a todo aquello que tiene que ver con nuestras necesidades básicas (supervivencia, perpetuación de la especie, sexualidad). Tiene que ver con la maternidad, el instinto de crear vida nueva y es donde reside la fuerza del ser humano.

Este tipo de energía en nuestra sociedad actual la utilizamos muy poco. Aparece sólo ligada a la satisfacción de las necesidades básicas.

Elemento Tierra
Elemento Tierra

Es el elemento que indica en nivel de estabilidad en una persona. Como todos los elementos, en exceso puede llevar a la rigidez, dureza y en su defecto a la inestabilidad, falta de equilibrio, seguridad, no conectar con los deseos y necesidades.

Bibliografía: «Hablar con el cuerpo» . Luis Carvajal Pérez

1 comentario en «¿Qué significa tener los pies en la Tierra?»

Deja un comentario

Quiero superar el estrés que sufro en mi trabajo

¿Cómo puedo hacerlo?

Te Escucho

Escríbeme una consulta en este formulario y te contesto lo antes posible.