Verkaufen Arzneifirmen gefährliche Medikamente, um Geld zu machen?

...komplette Frage anzeigen

2 Antworten

Pharmafirmen wollen, wie jede Firma, in erster Linie Geld verdienen.

Und Geld verdient man nachhaltig nicht mit schlechten oder gefährlichen Produkten, sondern nur mit guten, die sich lange am Markt halten.

Das heißt, Arzneimittel werden heute sehr gründlich und umfangreich geprüft , und sie müssen auch von den Gesundheitsbehörden zugelassen werden. Erst dann darf man sie verkaufen.

Vor einem verschreibungspflichtigen Arzneimittel hätte ich keine Angst, ich weiß ja, dass es ausführlich und lange getestet ist.

Aber bei Nahrungsergänzungsmitteln und "Naturmedizin", die nicht zugelassen werden müssen, können dir die Hersteller sonstwas erzählen und den letzten Schrott anbieten. Da würde ich mir mehr Sorgen machen. Denn rate mal, was diese Firmen wollen? Genau: Auch Geld verdienen.

Pangaea 22.05.2016, 08:05

Vielen Dank für das Sternchen!

0

Hierüber wird eine Menge dummes Zeug berichtet. Tatsächlich sind die heutigen Auflagen der pharmakologischen Industrie so stark, ebenso die Überprüfungen, dass sich kein namhafter Konzern so etwas wagt. Die Contagan-Tragödie war für alle ein Unglücksfall. Und der Lipobay-Skandal wird heute etwas differenzierter gesehen. Schuld dürften hier Ärzte, die gewisse Nebenwirkungen nicht beachteten, gewesen sein.

Was möchtest Du wissen?