そもそも東洋医学とは何でしょうか

東洋医学とは、もともと中国で生まれ発達した医学が六世紀の頃に日本に伝えられ、明治時代初期まで我が国の主流医学だったものです。つまり、中国にルーツをもつ日本の民族伝統医学をいいます。今日東洋医学というと、いわゆる民間医療や西洋医学ではない医学をも含める場合もありますが、本来はあくまで中国伝来の医学体系をいうわけです。 

よくある質問一覧へ戻る