Ist es für Dich wichtig, daß Dein Arzt einen Doktortitel hat?

21 Antworten

Vom Fragesteller als hilfreich ausgezeichnet

Nein. Die Tatsache, dass er eine Doktorarbeit geschrieben hat, macht keinen Arzt zu einem besseren Arzt. Wichtig sind mir Kompetenz, Können und Einfühlungsvermögen... diese Dinge vermittelt ein Doktortitel nicht.

Für mich ist es nicht wichtig.

Ich merke ja rasch, ob der Arzt kompetent, sympathisch und hilfreich ist.

Zudem werden Doktor-Titel meist nicht in dem Fachgebiet gemacht, wo der Arzt später tätig ist.

Jedenfalls ist es eine Fleißaufgabe.

Es ist mir nicht bekannt, dass sich Ärzte darum reißen, die Doktorarbeiten ihrer Kollegen zu lesen, um sich weiterzubilden...

(wenige Ausnahmen mag es geben...)

Doktortitel sind mMn oft eh meist erkauft .

1
@Huflattich

Nicht in der Medizin! ... in anderen Sparten gibt es das schon manchmal  ;-)

2
@Huflattich

..meist erkauft, soso

Und von wie vielen Ärzten weißt du das, so als Grundlage für deine "Meinung"?

Wie viele Dissertationen und deren Urheber kennst du überhaupt?

Deine Aversion gegen die (evidenzbasierte) Hochschulmedizin ist bekannt, da können ja ein paar Unterstellungen eines allgemein kriminellen Medizinertums ja nicht schaden ... oder so?!

2
@beamer05

Lies doch mal genau meine Kommentare hier - liest Du da irgendwas von Dissertationen im medizinischen Bereich ? Also wirklich .

0

Nein ------> schließlich kann der Gute auch ohne Doktortitel sehr kompetent sein. 

Außerdem hängt es bei mir ebenso stark vom Sympathiefaktor ab: Wenn ich mit einem Arzt nicht auskomme bzw. ihn nicht als seriös/vertrauenswürdig empfinde oder wie bei einem Arzt, bei dem ich mal war das Gefühl habe, nicht ernstgenommen bzw. von oben herab behandelt zu werden, dann gehe ich da nicht hin.

Mein Hausarzt hat auch keinen Doktortitel ("praktischer Arzt") ich bin aber total zufrieden und halte ihn für den besten und fachkundigsten Arzt, bei dem ich je gewesen bin.

Was möchtest Du wissen?