Das wav-Format ist generell verlustfrei. Beim Export wird Bit für Bit übertragen; was soll sich also ändern? Ein Containerformat ist es auch nicht, sonst widerspräche es der Definition von WAV. Beim Umwandeln in eine anderes Abtastverhältnis (z. B. 44,1kHz auf 48kHz) gibt es Umwandlungsverluste, die so klein sind, dass sie man nicht hört.

...zur Antwort

Es geht m. W. nicht mit Audacity. Adobe Audition (2.0) ist so ein Programm, was das kann! Unter Effekte/Amplitude/Dynamikverarbeitung findet man alle Einstellmöglichkeiten (auch graphisch) zur Dynamikeinstellung. Damit ist es auch näherungsweise möglich, einen komprimierten Ton wieder auf normales Maß zu reduzieren. Und das in verschiedenen Frequenzbereichen! Ich habe es schon geschafft, einen Dolby-komprimierten Ton eines Films so zu bearbeiten, dass es zuletzt nicht mehr auffällt. Aber es ist viel Einstellungsarbeit(!) und hören muß man auch gut.

...zur Antwort

Die Lautsprecherkabel sind an einer Ader mit einem sichtbaren Strich markiert, ab und zu auch rot markiert. Das ist das heiße Ende (also Plus). Es gehört bei Bananenbuchsen in die rote Buchse.
Demnach ist die unmarkierte Ader der (Lautsprecher-)Minus (aber nicht Masse!!!).

Es gibt nämlich Verstärker, die symmetrisch oder in Brückenschaltung arbeiten. Da darf keinesfalls der Minus des Lautsprechers an die Masse des Verstärkers, sondern nur an den Lautsprecherausgang "Minus". Sonst raucht der Verstärker ab!

...zur Antwort

Hallo BlackDragon217,
das wird nicht möglich sein, da Klänge grundsätzlich Obertöne und Formanten enthalten, die mit anderen Klängen in der Mischung überlagert sind. Wenn man also versucht, z. B. eine Baßspur herauszunehmen, bleiben die Obertöne immer noch erhalten, d. h. man hört sie.

Trasher hat Recht, wenn er sagt, die Einzelspuren könne man nur vom Produzenten bekommen, wobei dabei die Schwierigkeit besteht, in welchem Format das dann geschieht. Nicht jeder hat die Möglichkeiten wie im Studio, auf beliebig viele Spuren zuzugreifen. Meistens ist beim Standard-PC bei max. 4 Spuren Schluß!

Frohe Weihnachten!

...zur Antwort

Zunächst braucht man eine "saubere" Aufnahme, ein Profisprecher am besten mit Röhrenvorverstärker aufgenommen. D. h. die Aufnahme sollte in der Hüllkurve weitestgehend symmetrisch sein. Unsymmetrische Hüllkurven deuten immer auf nichtlineare Verzerrungen der Mikrofonvorverstärker hin (Transienten!)
Dann heißt es filtern, filtern, filtern ..., vor allem die Höhen über 10 kHz fehlten dem Lichtton, die Tiefen kann man je nach Geschmack etwas dämpfen.
Wenn das Ergebnis zufriedenstellend ist, kann man noch unter Effekte/Amplitude/Dynamikverarbeitung versuchen, die Dynamik zu komprimieren.

...zur Antwort

1.) Beim "Gekritzel" handelt sich um die Wellenform eines Stereosignals, linker Kanal i.d.R. oben. Bei starker Vergrößerung der X-Achse kann man schon einzelne Kurvenformen erkennen. Die Höhe der Kurve beidseitig um die Mittellinien stellt die Amplitude dar, wobei die Y-Achse meist in dB (logarithmisch) dargestellt wird. .

2.) Es gibt in Audacity - wie in fast allen mir bekannten Audioprogrammen - die Funktion "Normalisieren". Die Funktion versteckt sich unter dem Menüpunkt "Effekte". Einstellen kann man hier den Maximalpegel (ich nehme normalerweise -0,3dB) und ob links und rechts gleich oder unabhängig voneinander normalisiert werden.

3.) Nach der Vergrößerung der Wellenform sieht man auch oft Spitzen, die nichts zur Lautstärke beitragen, sondern nur Transientenverzerrungen darstellen. Diese sind meistens zu erkennen, weil sie völlig unsymmetrisch sind (je nach Polarität der Audioquelle entweder positiv oder negativ zu groß).
Sie rühren von schlechten Mikrofonvorverstärkern her, die mit Bipolartransistoren aufgebaut sind (entweder diskret aufgebaut oder als OP-Amp). Wenn es gelingt, diese Pegelspitzen zu reduzieren, kann man oft unbearbeitete Sprache um bis zu 8,5dB, Musik um bis zu 4,5dB anheben, ohne Übersteuerung fürchten zu müssen - und alles ohne Kompressoren oder ähnlichen Schnick-Schnack.
Einen Automatismus, um die Transientenverzerrungen zu beseitigen, kenne ich bei Audacity nicht, weil ich zu wenig mit dem Programm arbeite. Aber einen positiven oder negativen Ausschlag zu vermindern müßte möglich sein.

4.) Grundsätzlich sollte man schon bei der Aufnahme aufpassen, dass der Pegel groß genug ist - aber ohne zu übersteuern. Sonst läuft man Gefahr, dass man Quantisierungsfehler nach der Pegelanhebung hört. Jede 6dB kosten ein Bit, also Untersteuerung 12dB ist gleichbedeutend einer Aufnahme mit 14 Bit (bezogen auf CD-Qualität), statt mit 16 Bit.
Das ist auch der Grund, weil in Studios 24 Bit oder gar 32 Bit verwendet werden, dazu gleichzeitig mit höheren Abtastraten (bis zu 192kHz und höher!). Dann hat man im Pegel und im Frequenzgang genug Luft, um Aussteuerungsfehler hinterher zu reparieren.

Als Foto ist ein typischer Ausschnitt einer Sprachaufnahme beigefügt, die heftige Transientenverzerrungen (nichtlineare Verzerrungen) aufweist.


...zur Antwort

Gold ist ein Edelmetall mit bester Leitfähigkeit, es oxidiert auch nicht!  Kupfer leitet zwar gut Strom, aber oxidiert sehr schnell. Silberoxid leitet auch, aber am Silberoxid setzen sich andere Partikel fest, die die Leitfähigkeit verschlechtern. Der Vorteil vergoldeter Stecker sind die Kontaktzuverlässigkeit und der niedrige Übergangswiderstand, der bei normalen Klinkensteckern durchaus meßbar ist. Vor allem bei Lautsprecheranschlüssen mit Klinkensteckern macht sich Gold sehr gut: Statt mehrere Watt im Stecker zu "verheizen" (ein normaler Klinkenstecker wird wirklich warm bis heiß!!!), kommt die Leistung bei den Lautsprechern an.

Auch im Kleinsignalbereich spielt die Vergoldung eine Rolle: Da der Übergangswiderstand physikalisch vorhanden ist, kann er zum Knistern bzw. Rauschen des Signals beitragen. Nur bei Gold ist wie gesagt der Übergangswiderstand äußerst klein.

...zur Antwort

Würde erst mal feststellen, wo die Rauschquelle liegt. Ein dynamisches Mikrofon rauscht bei etwa -65dB. Mit Hilfe der Boltzmann-Konstante kann man nachrechnen, dass ein dyn. Mikro mit einem Innenwiderstand von 200 Ohm mit 1,8 nV/√Hz rauscht. Das ist physikalisch bedingt und nicht vermeidbar.
Meistens rauschen die nachgeschalteten Mikrofonvorverstärker mehr als das Mikro selbst. Ein Großmembran-Kondensatormikrofon liegt da schon wesentlicher günstiger im Rauschen; bei richtiger Anssteuerung ist bei dieser Mikrofonsorte kaum noch ein Rauschen zu hören. Übrigens halte ich Röhrenvorverstärker oder solche mit Feldeffekttrasistoren für wesentlich besser klingend, als alles, was bipolare Transistoren enthält.

Den Frequenzgang zu begrenzen und gleichzeitig zu behaupten, eine E-Guitarre komme nur auf x (k)Hz, ist völliger Quatsch! Gerade die Obertöne eines Instruments bestimmen den Klang!
Wenn man bei Tiefton etwas abschneidet, beeinflußt das höchstens das Rumpeln, aber nicht das Rauschen. Die meisten Mikrofonvorverstärker übertragen ohnehin unterhalb von 20 Hz kaum noch etwas. Es gibt auch kaum natürlichen musikalischen Schall (außer vielleicht ein 32'-Register bei der Orgel) unterhalb von 20Hz. Ein Noisegate ist auch nur die letzte Möglichkeit, eine schlecht dimensionierte Verstärkerkette zu ver(schlimm)bessern.

Also zuerst die Aufnahmekette überprüfen, die Pegelverhältnisse feststellen und dann erst entscheiden, was zu tun ist. Nicht unnützes Gefasel ...

...zur Antwort

Hallo AGN777,
wie klingt denn Deine Stimme überhaupt? Wenn die Stimme nämlich wenig Formanten hat oder sehr schmalbandig ist, kann man auch mit den besten Filtern nichts ausrichten! Kompressoren snd nur eine Notlösung, weil sie meist mehr kaputt machen, als nützen.
Als erstes ist ein trockener (hallarmer, gedämpfter) Raum notwendig, zweitens ein Kondensator-Großmembranmikrofon mit Windschirm, drittens ein guter Mikrofonvorverstärker, am besten mit Röhren oder Feldeffekttransistoren.
Letzterer vermeidet Transientenverzerrungen, die hinterher mit keinem technischen Mittel zu beseitigen sind! Zudem ergibt der Röhren-/FET-Vorverstärker von vornherein einen um 8,5dB höheren Pegel (ohne Einsatz von Effektgeräten) und ein schön symmetrisches Ausgangssignal.
Dieses Signal ist die Basis des ganzen Klangs. Raumresonanzen kann man noch ausfiltern (sie sollten von vornherein garnicht erst entstehen). Filterung der Stimme ist nur Geschmack - dem einen gefällt sie so, dem anderen anders.

Also prüfen, ob Deine Stimme gut aufzunehmen geht, dann erst Geld ausgeben!

...zur Antwort

Grundsätzlich gilt: Das wav-Format ist das einzige unkomprimierte Format. (Flac ist eine Erweiterung des wav-Formates vor allem für Mehrspuraufnahmen.) Das wav-Format gestattet Aufnahmen bis zur Samplerate von 192kHz (manche Profigeräte erlauben auch 384kHz!), für CD-Produktionen werden die Vielfachen von 44,1kHz bevorzugt, für Videos die Vielfachen von 48kHz.
Je mehr Samples, desto besser ist die Auflösung des Signals. jedoch ist nach dem Shannon'schen Abtasttheorem eine Abtastrate nicht höher als etwa die doppelte obere Grenzfrequenz nötig. Also bei 20kHz verwendet man mindestens 44,1kHz. Und eine Abtastung mit 16 Bit reicht aus, wenn man nicht hinterher die Aufnahme bearbeiten will (mehr bietet die CD auch nicht!). 24 oder 32 Bit verwendet man i. A. nur, wenn man mehr Auflösung braucht, weil man bei der Aufzeichnung nicht so genau auf den Pegel achten muß.
32 Bit ergeben eine viel höhere Datenrate, wobei der verwendete PC auch mitspielen muß! Dafür hat man auch nach unten die doppelten Pegelstufen.

Bei mp3 und anderen komprimierenden Verfahren - wie z. B. OGG-Vorbis - werden nach gehörphysiolgischen Methoden Daten engespart. "Was man nicht hört, braucht man nicht zu übertragen." Das führt dann dazu, dass wenn man die Daten hinterher filtern will (den Frequenzgang ändern will), doch irgendwelche Bereiche so angehoben werden, dass man die Komressionsartefakte deutlich hört. Ab etwa 192kbit/s Datenrate bei Joint-Stereo hört der Laie normalerweise keinen Unterschied mehr.
Da in youtube und anderen Musikplattformen der Ton fast ausschließlich in mp3 vorliegt, bringt es offensichtlich nichts, wenn man die Aufnahme wieder komprimiert speichert. Das ist aber ein Trugschluß! Nur wenn es sich um einen reinen Download handelt, bleibt Bit für Bit so, wie es ursprünglich war. Bei Aufnahmen in Echtzeit wird dagegen ja wieder komprimiert. Da ist es in jedem Fall besser, das unkomprimierte wav-Format einzusetzen.

Ich selbst habe bei einer Abhörsitzung im Funkhaus, als mp3 ganz neu war, bei einer Bandaufnahme, wo die eine Spur mit 384kbit komprimiert gewesen war, die andere linear (analog), mit 100%-iger Treffsicherheit sagen können, welche Spur jeweils komprimiert war. Es ist zu hören!!!

Audio-Programme wie z. B. Audacity erlauben auf einfachste Weise die Formatumwandlung, wenn man die entsprechenden Codecs hat.

Also zusammenfassend: Downloads von youtube o. a. im Originalformat speichern (hinterher umwandeln), Echtzeit-Aufnahmen dagegen immer unkomprimiert mit möglichst optimaler Aussteuerung im wav-Format. Der Speicherplatz spielt heute sowieso eine untergeordnete Rolle. Anders sieht es bei Downloads im Internet aus; da spielt die Bandbreite eine große Rolle!


...zur Antwort

Niemals zwei Ausgänge ohne Entkopplung an einen Eingang schalten! Mit Umschalter ist das möglich, möglichst im abgeschirmten Blechkästchen. Wenn man Pegelverlust in Kauf nimmt, kann man einen passenden Spannungsteiler berechnen, wozu allerdings Ausgangs- und Eingangsimpedanz(en) bekannt sein sollten.

Bei Nichtbeachtung des ersten Satzes schließt ein Ausgang den anderen kurz! Bei den geringen Ausgangsimpedanzen kann das zur Zerstörung der Ausgangsstufen führen.

...zur Antwort

Ohne Abschirmung geht das nicht (von wegen Brummeinstreuungen)!
Es ist also ein Blechkästchen nötig mit zwei passenden Buchsen (3,5 oder 6,3mm). Den Ausgang des einpoligen Umschalters kann man wieder auf eine Buchse legen (oder aber direkt an ein Anschlußkabel mit entsprechendem Stecker und entsprechender Länge). Die Abschirmung ist von den Buchsen möglichst bis zum Schalter zu führen, von dort weiter zur Ausgangsbuchse.
In ganz krassen Fällen können Funksignale erheblich stören, abgesehen vom Brumm.

Nie aber dürfen zwei Eingänge mit einem Y-Kabel zusammengeschaltet werden, weil dann ein Ausgang den anderen quasi kurzschließt! Das bei Amazon abgebildete Y-Kabel dient dazu, einen Ausgang auf zwei Eingänge zu verteilen (und nicht umgekehrt)!
Mit Längswiderständen kann man das zwar auch lösen, wenn man die Ausgangsimpedanzen kennt und die Eingangsimpedanz des nachfolgenden Eingangs (und Spannungsteiler berechnen kann), aber dabei tritt in jedem Fall ein Pegelverlust ein.

...zur Antwort

Zuerst muß man feststellen, welches Kabel zum Einsatz kommt! Da ein Headset normalerweise in Stereo arbeitet, braucht man mindestens 3 Adern für die Kopfkörer. Im einfachsten Fall gibt es dazu eine abgeschirmte Leitung für das Mikrofon, deren Schirm auch für die Kopfhörerrückleitung benutzt werden kann (besser gesagt: muß).

Also zwei Pins der Steckverbindung für Kopfhörer L und R.
Ein Pin (der Schirm der Mikrofonleitung) als Rückleitung für die Kopfhörer,
zuguterletzt die a-Ader im Schirm für das Mikrofon.

Das Ganze geht dann auf einen 4-poligen 3,5mm-Klinkenstecker, dessen Anschlußnorm man vorher auch ausfindig machen muß (es gibt zwei Varianten der "Norm"). 

Da der Kopfhörer relativ hochohmig ist, spielt die Leitung die geringste Rolle; beim Mikrofon ist u. U. eine gute Schirmung nötig.

Viel Spaß beim Löten.

...zur Antwort

Vielleicht heißt der Knopf auf der Fernbedienung "PC" oder "AV" oder "Source"? Oft kommt dann noch ein Untermenü für die Quellenwahl. Notfalls mal bei PHILIPS schauen, ob es eine Bedienungsanleitung gibt.

...zur Antwort

Prinzipiell richtig! Bei dem DVI-Anschluß gibt es keinen Ton, sondern dieser wird separat geführt auf den Aux-Eingang "Audio In DVI" oder "Audio In PC" oder so ähnlich. Auf der Fernbedienung muß man dann nur den DVI- oder PC-Eingang anwählen. Man erhält ein Schwarzbild, aber der Ton müßte zu hören sein. 

...zur Antwort

Es gibt in FL Studio eine Funktion "Time Stretching". Mit dieser wäre es möglich, die Geschwindigkeit zu ändern bei gleichbleibender Tonhöhe. Mit einer Funktion "Pitch" würde dann die Tonhöhe geändert. Leider weiß ich nicht im Detail, wie das geht.

In anderen Programmen (wie z. B. Audobe Audition) heißt die Funktion Effekte\Zeit/Tonhöhe\Dehnen. Hier gibt es die Zeitdehnung (bei gleichbleibender Tonhöhe), das Transponieren (bei gleichbleibendem Tempo) und das Resample (verändert Tonhöhe und Tempo), letzteres also so, wie früher ein Tonband langsamer oder schneller lief. Und bei Audition ist es sogar möglich, über die Länge eines markierten Stückes die Effekte gleitend einzustellen. Das benutze ich z.B. zum Nachstimmen von digitalisierten Tonbandaufzeichnungen, weil eine kalte Tonbandmaschine etwas langsamer läuft, als im Warmzustand. Also ist bei Wiedergabe die Tonhöhe anfangs oft etwas zu hoch, gegen Ende des Stückes dagegen fast wieder normal. U. U. muß man dazu den Titel mehrfach teilen und die Teile einzeln bearbeiten.

...zur Antwort

Mp3-Dateien sind reine Daten! Eine CD wird gebrannt, als seien es Daten. Ob die Ordnerstruktur vom mp3-CD-Player verstanden wird, ist eine andere Frage. Viele mp3-Player "sehen" die (mp3-)Daten in der Reihenfolge, wie sie gebrannt wurden. Wenn man also sicher gehen will, dass die Reihenfolge auch im Player stimmt, sollte man im Brennprogramm Stück für Stück die Daten in die Brennliste ziehen. Bekanntlich sortiert der Windows-Explorer nach Alphabet, aber die meisten mp3-Player nicht! Es empfiehlt sich immer eine Überprüfung der Reihenfolge. Beim Windows-Explorer am besten von hinten bis vorne markieren (mit der Umschalttaste) und dann den ersten Titel anfassen und ins Brennprogramm ziehen. Dann ist die Reihenfolge wie im Explorer angezeigt.

Beim Brennen bitte auch nicht die höchste angegebene Brenngeschwindigkeit für den Rohling verwenden, besser nur die halbe Maximalgeschwindigkeit. Nach dem Brennen auch noch eine Datenüberprüfung machen gegen die Rohdaten!

Und zur "Strafbarkeit" ist zu sagen, dass man für den privaten Gebrauch so viel Kopien ziehen kann, wie man will. Ein Kopierschutz ist ohnehin auf den CDs kaum noch vorhanden, weil zu teuer und leicht auszuhebeln. Titel, die älter sind, als 70 Jahre, sind sowieso nicht mehr rechtemäßig geschützt.
Was in Youtube und anderen Quellen angeboten wird, ist für den Privatgebrauch auch frei und kann mit einschlägigen Programmen auch gespeichert werden. Selbst, wenn das digital nicht geht, kann man doch immer noch analog aufnehmen. Dann wird es auch schwer, nachzuweisen, ob der Titel im (Internet-)Radio gelaufen ist, weil eventuelle digitale Signaturen dann nicht mehr vorhanden sind. 

Auch mal darauf achten, ob der Autoradio-mp3-Player auf verschiedene Rohlinge anders reagiert?!? 

Viel Spaß


...zur Antwort

Keiner kam auf die Idee, dass es sich bei der Impedanzanpassung um eine Leistungsanpassung handelt. D. h.: Ein Verstärker, der z. B. auf 4 Ohm ausgelegt ist, bringt die volle Leistung nur an 4 Ohm-Boxen.

Weiterhin entscheidet alleine der Verstärker, was er abgeben kann. Da spielen die Betriebsspannung und der Strom der Ausgangsstufe eine Rolle. Man kann also nicht einfach sagen: "Bei 8 Ohm-Boxen leistet der Verstärker nur halb so viel". Vielleicht ist ja die Spannungsreserve größer. Also leistet der Verstärker evtl. bei 8 Ohm-Boxen doch mehr, als die Hälfte. Um das zu berechnen, muß man aber in die Schaltung einsteigen, die Enstufenspannungen und -ströme kennen, die Verlustleistungen der Endtransistoren, die Spannungsversorgung usw.

Jedenfalls sollte man nicht eine 4 Ohm-Box an einen 8 Ohm-Ausgang anschließen, weil sonst der Verstärker strommäßig überlastet wird. Umgekehrt verliert man etwas Leistung, aber der Verstärker bleibt heile.

...zur Antwort

Vorgehensweise bei der Rauschentfernung (noice reduction): Zuerst braucht man ein Stückchen der Aufnahme, wo nur (!) die Nebengeräusche existieren. Dieses dient als Rauschsample. Dann sollte man das, was man wegrechnen will, vorhören. Es sollte sehr wenig vom Nutzsignal enthalten, aber möglichst das Geräusch. In Adobe Audition z. B. kann man den Frequenzgang der Rauschunterdrückung auch noch beeinflussen. Dann wieder umschalten auf Rauschentfernung. Wenn zuviel weggerechnet wird, entsteht der Effekt des blechernen Klangs, weil zuviel Nutzsignal entfernt wurde.

Wenn keine Stelle vorhanden ist, die nur Störgeräusch enthält, bleibt nur die Möglichkeit, mit steilflankigen Filtern die Störgeräusche im Frequenzspektrum zu finden und daraus eine neue Datei zu erstellen. Dann nimmt man diese Datei als Rauschsample und rechnet sie auf die Originaldatei. Aber Vorsicht ist da auch angesagt; schnell ist wieder zuviel weggerechnet! Das Programm kann nämlich nicht unterscheiden, ob z. B. ein 100Hz-Brumm vorliegt, oder ob es sich um den Baß in der Musik handelt.

Übrigens ist Audacity als Freeware bei weitem nicht so leistungsfähig wie Profiprogramme. Es sind doch mehr oder weniger Spielereien, was Audacity kann.

...zur Antwort

Audioprogramme, wie z. B. Adobe Audition haben die Möglichkeit, in den Einstellungen festzulegen, wieviel Millisekunden ein Schnitt überlappt wird, oder bei harten Schnitten, dass eingerastet wird beim nächstliegenden Nulldurchgang. Empfehlenswert ist immer, den Gleichstromanteil einer Audiodatei vor dem Schnitt zu eliminieren. Das hat Adobe Audition unter Effekte, Amplitude, "Centerwave" versteckt. Bei anderen Programmen könnte man ein Fourier-Filter verwenden, das unter 30 Hz steilflankig abschneidet. In diesem Tonbereich sind meist außer Rumpelstörungen keine sinnvollen Signale mehr vorhanden, es sei denn bei einer guten Orgelaufnahme mit 32-Fuß-Register, wobei der tiefste Ton bei 16Hz liegt. Dann kann man mit der Filtereinstellung auf 10Hz heruntergehen. Nach diesen Vorbereitungen muß man es schon ganz dämlich anstellen, noch einen Knack oder Klick zu produzieren.

...zur Antwort