Hallo Ich setzte mich gerade mit dem Thema Organspende auseinander, und finde es Grausam was manche Menschen über andere denken die es nicht wollen, ich persönlich würde niemals meine Organe an Fremde Leute Spenden, meine Eltern als auch Verwandte könnten niemals mit dem Gedanken leben, das ich mich dafür Entscheiden würde eine Fremde Person meine Organe zugeben. Ich finde es in der heutigen Gesellschaft Grausam das durch Organspende Werbung, es als Pflicht dagestellt wird, und jeder verpflichtet ist Organe zu spenden. Aber ich bin mir bei diesem Thema sehr unsicher weshalb ich hier fragen möchte, was hallten ihr davon? Ist es eine "Pflicht"? Würdet ihr eure Organe auch nur wenn es geht an Bekannte oder Familienmitglieder spenden wollen? Danke im Voraus!