Organicismo

Organicismo

,
m.
Theoria dos que attribuem qualquer doença à lesão material de um
órgão.
(De orgânico)