Ich schaue mir oft im TV Dokumentationen an, vorallem von der Tierwelt.
Die letzte Doku war von Dubai und da zeigte mancher Reiche stolz Tiger usw, auch in Deutschland gibt es Leute die exotische Tiere halten. Sie müssen halt sich Genehmigungen holen. Auch werden in Touristencentren so manches Tier für Fotos zur Schau gestellt.
Sollte all dies nicht besser unterbunden werden?
Wie ist eure Meinung dazu.