Sind beim Neuwagenkauf im Winter Winterreifen dabei?

... komplette Frage anzeigen

11 Antworten

Ab Werk kommen Fahrzeuge aller Hersteller serienmäßig auf Sommerreifen. Bei manchen Herstellern kann man ab Werk Winter- oder Ganzjahresreifen bestellen, was natürlich Aufpreis kostet. Auch beim Händler kannst du entsprechende Reifen bekommen, entweder er verkauft sie dir oder gibt sie dir und du bekommst stattdessen weniger Nachlass.

Es besteht in Deutschland keine Winterreifenpflicht, daher müssen die Hersteller die Fahrzeuge auch nicht im Winter auf Winterreifen ausliefern. Es gibt lediglich die Pflicht, dass das Auto passend zu den Witterungsbedingungen ausgestattet ist. Dazu gehört neben Reifen auch z.B. Scheibenklar. Das bedeutet: Wenn im Winter die Straße trocken ist, die Sonne scheint und weder mit Straßenglätte noch mit Schneefall zu rechnen ist, dann darfst du auch im Winter mit Sommerreifen fahren.

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von skyenity
21.01.2016, 12:59

echt? ich dachte immer des es winterreifenpflicht gibt :D

0

Kann, muss aber nicht. Es kommt auch vor, dass Autos im Dezember mit Sommerreifen ausgeliefert werden.

Wenn das wichtig ist, muss man das beim Kauf im Vertrag vorsehen.

Antwort bewerten Vielen Dank für Deine Bewertung

Kommt drauf an,Im Sommer bestellt,könnten die auch drauf sein.Ein verantwortungsvoller Händler übergibt ein Fahrzeug der Jahreszeit entsprechend.In der Übergangszeit könnte er die Region,die Nutzung durch den Käufer,im Gespräch einbeziehen.Ich würde ,weil ich nur bei Regen oder strenger Kälte einen Wagen nutze,auf Allwetterreifen bestehen.Bei einem Neuwagenkauf kann man das größte entgegenkommen erwarten und auch durchsetzen.Beste Grüße

Antwort bewerten Vielen Dank für Deine Bewertung

Hallo skyenity

Neuwagen werden mit Sommerreifen ausgeliefert, Winterreifen musst du extra bestellen. Ich bestelle bei einem Neuwagen immer gleich Winterreifen mit, da hat man mehr Möglichkeiten zur Preisverhandlung

Gruß HobbyTfz

Antwort bewerten Vielen Dank für Deine Bewertung

Oft sind nur Sommer Reifen dran aber die Händler sind bereit zu verhandeln. Allwetter Reifen wären auch eine Option.

Antwort bewerten Vielen Dank für Deine Bewertung

Manchmal sind Allwetterreifen drauf und manchmal nur Sommer bzw Winterräder... Faire Händler wechseln öfters auch die Reifen je nach Jahreszeit bei Verkauf... 

Am besten ist es deswegen beim jeweiligen Händler nachzufragen... 

Antwort bewerten Vielen Dank für Deine Bewertung

Das hängt in der Regel vom Verkäufer bzw. Händler ab.

Antwort bewerten Vielen Dank für Deine Bewertung

ist meist verhandlungsache?

würe auf jeden fall ganzjahresreifen verlangen denn sonst ist es nicht verkehrssicher?

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von dani3680
21.01.2016, 10:19

allwetter reifen sind scheisxe.es macht nur krach bei der fahrt

0
Kommentar von skyenity
21.01.2016, 10:21

ok danke dir fur die schnelle antwort. ich persönlich halte auch nichts von allwetter reifen, der grip ist einfach nicht so toll, da landet man schnell mal im graben :)

0

Winterreifen sind dabei wenn du welche beim Autokauf mit bestellt hast. ist alles nur Verhandlungssache.

Antwort bewerten Vielen Dank für Deine Bewertung

Eigentlich schon. Außer das Auto steht schon seit Sommer da, aber denn ziehen sie meist welche drauf, bevor du es kaufst.

LG

Antwort bewerten Vielen Dank für Deine Bewertung
Kommentar von skyenity
21.01.2016, 10:19

ok danke, kollege meinte letztens, dass autos grundsätzlich mit sommerreifen ausgeliefert werden, sicherheitshalber rufe ich aber mal beim Händler an :)

1
Kommentar von Martinmv
21.01.2016, 10:39

ja ruf mal an und Frage nach

0

Kommt drauf an wie du das bestellt hast.

Antwort bewerten Vielen Dank für Deine Bewertung

Was möchtest Du wissen?