تعني كلمة الطب - وهي لفظة لاتينيّة - فن العلاج، والطب هو العلم أو المجال الذي يولي فيه الطبيب، الاهتمام بصحّة الإنسان الجسدية والنفسيّة، ويُعدّ من المِهن القديمة، والرائدة في العصر الحديث، فقد بدأ الإنسان تجارب الطب قديماً؛ بالأعشاب، ووسائل تقليديّةٍ أُخرى؛ كالنار، والضرب، فيما حاول العديد من العلماء القُدامى، سبر أغوار هذا المجال المُهم، وقدموا ابتكاراتٍ واكتشافاتٍ، ساعدت البشرية على فهم طريقة عمل الأعضاء البشريّة؛ أمثال ابن سينا، والرازي، إلى أن تطورت مظاهر الحياة، وفتحت الجامعات والمعاهد أبوابها؛ لتدريس مهنة الطب، وتلقي الطلبة التدريبات، والشروحات اللازمة لأن يُصبحوا أطباء.