Trabajo Social

El trabajo social es una profesión que busca favorecer el desarrollo de vínculos humanos saludables y fomentar cambios sociales que deriven en un mayor bienestar para las personas. Los trabajadores sociales, de este modo, actúan sobre ciertos factores relacionados a las interacciones de los individuos con el entorno.

El trabajo social está orientado a las relaciones que los sujetos mantienen con sus ambientes. La finalidad de este oficio es que cada ser humano pueda desarrollarse de forma plena: por extensión, el trabajo social logra cambios en las comunidades.