Externe Festplatten - jede 2. defekt :-( 213
28.11.2011
Tja jetzt hab ich hier was entdeckt was mich evtl. doch schwach werden lässt.
Eine 2TB 3.5"HD für 80 Euro:
http://www.aldi-sued.de/de/html/offers/2827_30170.htm
Oder ein 1.5TB NAS füt 100 Euro:
http://www.aldi-sued.de/de/html/offers/2827_30171.htm
Wie ist denn das bei einem NAS? Liegen die Daten unverschlüsselt auf der HD herum?
Oder anders gefragt: wenn mir die NAS Elektronik abraucht, kann ich die HD dann ausbauen und anderswo "normal" betreiben?
Eine 2TB 3.5"HD für 80 Euro:
http://www.aldi-sued.de/de/html/offers/2827_30170.htm
Oder ein 1.5TB NAS füt 100 Euro:
http://www.aldi-sued.de/de/html/offers/2827_30171.htm
Wie ist denn das bei einem NAS? Liegen die Daten unverschlüsselt auf der HD herum?
Oder anders gefragt: wenn mir die NAS Elektronik abraucht, kann ich die HD dann ausbauen und anderswo "normal" betreiben?
#162Report
28.11.2011
Original von Photowizard
Wie ist denn das bei einem NAS? Liegen die Daten unverschlüsselt auf der HD herum?
Oder anders gefragt: wenn mir die NAS Elektronik abraucht, kann ich die HD dann ausbauen und anderswo "normal" betreiben?
Die Fragen lassen sich nicht allgemeingültig beantworten.
Ein NAS ist nichts anderes als ein Rechner mit einer (oder mehrere) Festplatten, die ihre Speicherkapazität über einen Netzwerkanschluss zur Verfügung stellen.
Wie sie ihren Speicher intern nutzen kann man nur für das spezielle Gerät sagen.
Ob jetzt da Linux oder was Anderes darauf läuft, ob die Daten verschlüsselt werden oder im Klartext rumliegen, ob ein Software- oder Hardware-Raid verwendet wird
....hängt alles vom konkreten Gerät ab
Aber in dem Aldi-Fall würde ich mal davon ausgehen, daß es nur eine simple Platte mit Netzwerkanschluss ist. Und die Performance ist wahrscheinlich so fürchterlich, daß Du weniger Datenrate als über einen USB2 Anschluss darüber bringst.
#163Report
28.11.2011
Original von Pixelspalter
die Performance ist wahrscheinlich so fürchterlich, daß Du weniger Datenrate als über einen USB2 Anschluss darüber bringst.
Warum denn?
Ich würde das NAS wohl direkt per LAN Kabel an mein Notebook stöpseln. Müsste doch schneller sein als USB 2.0.
#164Report
28.11.2011
Original von Photowizard
Warum denn?
Ich würde das NAS wohl direkt per LAN Kabel an mein Notebook stöpseln. Müsste doch schneller sein als USB 2.0.
Leider nicht, weil die Transferleistung von Gigabit-Ethernet sehr stark von der Rechnerhardware abhängt. Und schwache Prozessoren bekommen da nur einen Bruchteil der möglichen Gigabit-Leistung darüber. Oft unter den 35MB/sec die USB2 schafft
#165Report
28.11.2011
Das dort beschriebene Gerät hat aber schon bisschen mehr Leistung unter der Haube...wenn man nach dem Chipsatz googled findet man schon einige der gesuchten Zusatzinfos.
Gibt also definitiv schlechtere. Nur NAS macht eigentlich nur als oft laufend Sinn - gerade wenn man richtigen Rechner eben nicht dauernd anhaben will und trotzdem Downloads managen und Daten übers Netz für sich und andere verfügbar halten möchte.
Ich verwende z.B. eine Eigenbaulösung aus nem alten Notebook das defektes Display hatte, "geschlachtet" und modifiziert wurde, dafür. Wobei hier der Chipsatz des Notebooks und genauer dessen USB-Teil, über den die 2x 2,5er angeschlossen sind, den Flaschenhals darstellen, da dort wo die Kiste steht sie extrem breitbandig angeschlossen ist - sonst wäre es wohl eher das DSL oder so. Wobei zusätzlich der Takt der CPU auf minimales Stepping gestellt wurde, da das Ding dann faktisch nicht hörbar ist und thermisch unauffällig läuft. Je nach Last 8 bis 20W Leistungsaufnahme. im Schnitt um die 12.
Gebootet wird über kleine 256 MB CF-IDE Brücke, die am internen HD-Controller hängt, auf der das OS ist,
Zusätzlich sind alle Platten vollverschlüsselt, SSH-Server und kleiner Apache läuft, noch paar andere Dinge und streamen, wie X-Forwarding kann man damit auch machen.
Eigentlich längst kein NAS mehr sondern eher günstiger richtiger Server 2GB RAM, 2x500GB Platte, mit eingebauter USV (alter Akku mit geringer Restlaufzeit) und GSM-Schaltmodul zur Fernabschaltung/Resetting falls nichts mehr geht.
Heute tät ich das wohl mit nem Micro-ITX Board mit Dual-Atom drauf lösen, die gabs da aber noch nicht und die Kiste läuft immer noch gut genug.
Wenn USB 3.0 sich noch mehr durchsetzt werde ich wohl irgendwann umstellen.
Gibt also definitiv schlechtere. Nur NAS macht eigentlich nur als oft laufend Sinn - gerade wenn man richtigen Rechner eben nicht dauernd anhaben will und trotzdem Downloads managen und Daten übers Netz für sich und andere verfügbar halten möchte.
Ich verwende z.B. eine Eigenbaulösung aus nem alten Notebook das defektes Display hatte, "geschlachtet" und modifiziert wurde, dafür. Wobei hier der Chipsatz des Notebooks und genauer dessen USB-Teil, über den die 2x 2,5er angeschlossen sind, den Flaschenhals darstellen, da dort wo die Kiste steht sie extrem breitbandig angeschlossen ist - sonst wäre es wohl eher das DSL oder so. Wobei zusätzlich der Takt der CPU auf minimales Stepping gestellt wurde, da das Ding dann faktisch nicht hörbar ist und thermisch unauffällig läuft. Je nach Last 8 bis 20W Leistungsaufnahme. im Schnitt um die 12.
Gebootet wird über kleine 256 MB CF-IDE Brücke, die am internen HD-Controller hängt, auf der das OS ist,
Zusätzlich sind alle Platten vollverschlüsselt, SSH-Server und kleiner Apache läuft, noch paar andere Dinge und streamen, wie X-Forwarding kann man damit auch machen.
Eigentlich längst kein NAS mehr sondern eher günstiger richtiger Server 2GB RAM, 2x500GB Platte, mit eingebauter USV (alter Akku mit geringer Restlaufzeit) und GSM-Schaltmodul zur Fernabschaltung/Resetting falls nichts mehr geht.
Heute tät ich das wohl mit nem Micro-ITX Board mit Dual-Atom drauf lösen, die gabs da aber noch nicht und die Kiste läuft immer noch gut genug.
Wenn USB 3.0 sich noch mehr durchsetzt werde ich wohl irgendwann umstellen.
#166Report
28.11.2011
Original von kleine|details
Soweit zu den Platten. Die Elektronik die stirbt sind alternde Elkos (thermisch - je wärmer desto schneller, vor allem bei billigen Varianten) also bei Langzeitbelastung.
Auf HDDs verwendet man eher selten Elkos. Tantal okay, aber echte Elkos? Kaum. Und Langzeitbelastung im normalen Temperaturbereich sind für selbige nicht so tragisch wie Ewiges nicht laufen, Aufspaltung des Elektrolyts in der Zeit und dann beim Einschalten "ploppen".
Ein neu "formieren" so geschädigter, jahrelang nicht gelaufener Bauelemente ist bei niedriger Spannung und Strom z.B. möglich, BEVOR sie sich "akkustisch" abmelden.
Original von kleine|details
Das Ausschalten oder häufige Schalten gefärdet höchstens noch Lötstellen (Erwärmen und Abkühlen führt zu Biegekräften wegen nicht gleichartiger Ausdehnung von Leiterplatte und Beuteilen.)
Oder die vielen vielen winzige Leiterzüge...oder diese gaaaanz feinen Bonddrähte im Die-Gehäuse. Nebenbei fliesst beim Einschalten auch oft erst einmal erheblich größerer Strom als im Betrieb....Kaltleiter vs. Heissleiter Übergänge...
Original von kleine|details
Da helfen oft 10 Min bei 250° im Backofen zur Reparatur.
MACH. DAS. NICHT!
Das klingt zwar nach lustigem Reflow-Reworken, aber die Dichtungen, Lager usw. sind doch auf andere Werte ausgelegt.
In der Herstellung läuft das deswegen auch getrennt und so Platinen durchfahren nicht ohne Grund gesteuerte Temperaturprofile.
Bei Doppelseitig bestückten Platinen kann sich dann auch mal das ein oder andere Bauteil lösen. Bei SMD "Hühnerfutter" in Größen 0201 ist das nicht mehr so ganz witzig...Delamination oder Erweichen von mehrschichtigem FR-4, das Temp-Index von 140 Grad C hat, ist auch nicht ganz so gut.
(Ob man z.B. bei 30-40K niedrigeren Temperaturen, in der Phase des eher breiigen Lotes also, gezielt Bauteile retten kann, oder korrekt reworkt, ist eine andere Geschichte - wenn man weiß was man tut, mit ESD-Schutz und allem!)
Original von kleine|details
Halbleiter gehen auch mal kaputt, aber da sind die Vorgänge anders und korrelieren nicht mit dem Aus- und Einschalten.
k|d
Och naja. Bei heutigen Strukturbreiten von teils nur noch Dutzend Atomen auf dem Chip gibts da schon unangenehme und spontane "Verarmungs-Effekte"...
Ansonsten ist so eine Dotierung aber schon was für länger und öfter.
Überspannung und zu hohe Betriebstemperaturen sind der Todfeind der Elektronik. 175 Grad C bei Silizium ist das Limit. Andere Halbleiter können mehr oder weniger ab.
#167Report
03.01.2012
In der neuen c't ist übrigens ein recht interessanter Artikel zum Thema RAID
http://www.heise.de/ct/inhalt/2012/02/136/
Im Grunde genommen steht dort, daß man ein RAID wirklich nur dann betreiben sollte, wenn man sich tief in der Materie eingearbeitet hat und es sich auch leisten kann Ersatzhardware (Festplatte, RAID-Controller) bereitzuhalten.
Ebenso wird in dem Artikel die Meinung vertreten, daß ein RAID ein System eher gefährdeter gegenüber Ausfall macht als sicherer. Denn der Vorteil des Abfangens eines Fesplattendefektes stehen eine Vielzahl von Nachteilen entgegen, die zum Datenverlust führen können
Und vor allem steht dort, was auch hier schon geschrieben wurde:
Ein RAID ersetzt keine(!) Sicherung
http://www.heise.de/ct/inhalt/2012/02/136/
Im Grunde genommen steht dort, daß man ein RAID wirklich nur dann betreiben sollte, wenn man sich tief in der Materie eingearbeitet hat und es sich auch leisten kann Ersatzhardware (Festplatte, RAID-Controller) bereitzuhalten.
Ebenso wird in dem Artikel die Meinung vertreten, daß ein RAID ein System eher gefährdeter gegenüber Ausfall macht als sicherer. Denn der Vorteil des Abfangens eines Fesplattendefektes stehen eine Vielzahl von Nachteilen entgegen, die zum Datenverlust führen können
Und vor allem steht dort, was auch hier schon geschrieben wurde:
Ein RAID ersetzt keine(!) Sicherung
#168Report
03.01.2012
Original von Thomas F. aka ToF
[quote]Original von kleine|details
Soweit zu den Platten. Die Elektronik die stirbt sind alternde Elkos (thermisch - je wärmer desto schneller, vor allem bei billigen Varianten) also bei Langzeitbelastung.
Auf HDDs verwendet man eher selten Elkos. Tantal okay, aber echte Elkos? Kaum. Und Langzeitbelastung im normalen Temperaturbereich sind für selbige nicht so tragisch wie Ewiges nicht laufen, Aufspaltung des Elektrolyts in der Zeit und dann beim Einschalten "ploppen".
Ein neu "formieren" so geschädigter, jahrelang nicht gelaufener Bauelemente ist bei niedriger Spannung und Strom z.B. möglich, BEVOR sie sich "akkustisch" abmelden.
Original von kleine|details
Das Ausschalten oder häufige Schalten gefärdet höchstens noch Lötstellen (Erwärmen und Abkühlen führt zu Biegekräften wegen nicht gleichartiger Ausdehnung von Leiterplatte und Beuteilen.)
Oder die vielen vielen winzige Leiterzüge...oder diese gaaaanz feinen Bonddrähte im Die-Gehäuse. Nebenbei fliesst beim Einschalten auch oft erst einmal erheblich größerer Strom als im Betrieb....Kaltleiter vs. Heissleiter Übergänge...
Original von kleine|details
Da helfen oft 10 Min bei 250° im Backofen zur Reparatur.
MACH. DAS. NICHT!
Das klingt zwar nach lustigem Reflow-Reworken, aber die Dichtungen, Lager usw. sind doch auf andere Werte ausgelegt.
In der Herstellung läuft das deswegen auch getrennt und so Platinen durchfahren nicht ohne Grund gesteuerte Temperaturprofile.
Bei Doppelseitig bestückten Platinen kann sich dann auch mal das ein oder andere Bauteil lösen. Bei SMD "Hühnerfutter" in Größen 0201 ist das nicht mehr so ganz witzig...Delamination oder Erweichen von mehrschichtigem FR-4, das Temp-Index von 140 Grad C hat, ist auch nicht ganz so gut.
(Ob man z.B. bei 30-40K niedrigeren Temperaturen, in der Phase des eher breiigen Lotes also, gezielt Bauteile retten kann, oder korrekt reworkt, ist eine andere Geschichte - wenn man weiß was man tut, mit ESD-Schutz und allem!)
...[/quote]
Ich bezog mich auf den gesamten Rechner, was alles so kaputt gehen kann - da ist es halt schon sehr oft so, dass die Elkos sterben, gefolgt von Lötstellen. Das Reflow-Löten im Backofen natürlich nur mit blanken Platinen (braucht trotzdem Mut und Glück, aber wenn eine Baugruppe ansonsten kaputt ist, kann ja nicht mehr viel passieren).
VG
k|d
#169Report
03.01.2012
mit guter internetverbindung heißt die lösung cloud.
netzlaufwerk einbinden -> Daten darauf sichern -> Zugriff von überall
netzlaufwerk einbinden -> Daten darauf sichern -> Zugriff von überall
#170Report
03.01.2012
Original von regensburg82
mit guter internetverbindung heißt die lösung cloud.
netzlaufwerk einbinden -> Daten darauf sichern -> Zugriff von überall
Und wenn man Pech hat und nicht aufpasst auch Zugriff für jeden ;-)
Weg können die Daten auch mal schnell sein, wenn man nicht vorher genau den Vertrag angesehen hat.
Ansonsten ist das keine schlechte Lösung.
k|d
#171Report
03.01.2012
Original von kleine|details
[quote]Original von regensburg82
mit guter internetverbindung heißt die lösung cloud.
netzlaufwerk einbinden -> Daten darauf sichern -> Zugriff von überall
Und wenn man Pech hat und nicht aufpasst auch Zugriff für jeden ;-)
Weg können die Daten auch mal schnell sein, wenn man nicht vorher genau den Vertrag angesehen hat.
Ansonsten ist das keine schlechte Lösung.
k|d[/quote]
das versteht sich von selbst.
bei strato kann man das 30 tage testen.
http://www.strato.de/online-speicher/privat-speicher/#__hidrive_teaser_link
#172Report
03.01.2012
Original von regensburg82
mit guter internetverbindung heißt die lösung cloud.
netzlaufwerk einbinden -> Daten darauf sichern -> Zugriff von überall
Das ist noch zu teuer. Ich bräuchte eine 2TB große Wolke. Dafür kann ich viele HDs kaufen.
In ein paar Jahren mag das anders aussehen.
#173Report
03.01.2012
Cloudcomputing ist für den Datenaustausch bzw. das mobile Handling gedacht.
Wenn bspw. auf verschiedenen Geräten die gleichen Daten verfügbar sein müssen.
Backup mit der Cloud ist nur was für DAUs und wird eher aus Dummheit/Bequemlichkeit gemacht!
Externe HDs sind die beste Lösung, aber man sollte halt nicht billigen Aldi-Schrott kaufen und auch sonst wissen, wie man mit Elektronik umgehen muss. >.
Wenn bspw. auf verschiedenen Geräten die gleichen Daten verfügbar sein müssen.
Backup mit der Cloud ist nur was für DAUs und wird eher aus Dummheit/Bequemlichkeit gemacht!
Externe HDs sind die beste Lösung, aber man sollte halt nicht billigen Aldi-Schrott kaufen und auch sonst wissen, wie man mit Elektronik umgehen muss. >.
#174Report
03.01.2012
Original von Satyr [GothicModels.net]
Cloudcomputing ist für den Datenaustausch bzw. das mobile Handling gedacht.
Wenn bspw. auf verschiedenen Geräten die gleichen Daten verfügbar sein müssen.
Backup mit der Cloud ist nur was für DAUs und wird eher aus Dummheit/Bequemlichkeit gemacht!
Externe HDs sind die beste Lösung, aber man sollte halt nicht billigen Aldi-Schrott kaufen und auch sonst wissen, wie man mit Elektronik umgehen muss. >.
Wer redet von Backup in die Cloud?
Das Backup übernimmt der jeweilige Dienstleister.
Alles was manuell angestoßen werden muss kann doch nicht ernsthaft als Optimale Backup Lösung bezeichnet werden.
#175Report
03.01.2012
Original von regensburg82
Alles was manuell angestoßen werden muss kann doch nicht ernsthaft als Optimale Backup Lösung bezeichnet werden.
Sehe ich anders. Durch ein automatisches Backup hätte ich schon viel Mist gebaut.
Manuell kann ich Fehler meinerseits leichter erkennen indem ich kurz überprüfe, was die Backup SW kopieren möchte.
Völlig richtig wurde hier bereits angemerkt, dass die meisten Daten durch Bedienfehler verloren gehen und nicht durch defekte Speichermedien.
#176Report
03.01.2012
Original von regensburg82
Alles was manuell angestoßen werden muss kann doch nicht ernsthaft als Optimale Backup Lösung bezeichnet werden.
Ein Programm zu starten und anschliessend darin einen Button zu klicken kann nicht ernsthaft als "manuell" bezeichnet werden.
#177Report
03.01.2012
Original von regensburg82
Alles was manuell angestoßen werden muss kann doch nicht ernsthaft als Optimale Backup Lösung bezeichnet werden.
Wieso Manuell?
Es gibt genug Software, die auch lokal automatisiert Backups erstellt
#178Report
03.01.2012
ja die gibt es in der tat.
dafür muss der rechner aber auch gewisse zeit laufen um 2 TB Daten zu sichern und die USB Platte immer angesteckt sein -> manueller aufwand.
USB Platte ist immer angesteckt? Okay, warum dann USB und extern?
Kann doch nicht euer ernst sein im Jahr 2012 ne externe (USB) Festplatte als die Mutter aller Sicherungskonzepte anzusehen, wenn ihr euch wirklich ernsthaft mit dem Thema auseinandersetzt.
Lieber versionierte Backups mit ner NAS (einmal ernsthaft Geld in die hand nehmen und gut).
Oder gleich in ner Cloud arbeiten und daraus Delta Backups erstellen. Dann hat man zusätzlich noch 2 Zugriffsmöglichkeiten wenn einem Mal die Bude abfackelt.
dafür muss der rechner aber auch gewisse zeit laufen um 2 TB Daten zu sichern und die USB Platte immer angesteckt sein -> manueller aufwand.
USB Platte ist immer angesteckt? Okay, warum dann USB und extern?
Kann doch nicht euer ernst sein im Jahr 2012 ne externe (USB) Festplatte als die Mutter aller Sicherungskonzepte anzusehen, wenn ihr euch wirklich ernsthaft mit dem Thema auseinandersetzt.
Lieber versionierte Backups mit ner NAS (einmal ernsthaft Geld in die hand nehmen und gut).
Oder gleich in ner Cloud arbeiten und daraus Delta Backups erstellen. Dann hat man zusätzlich noch 2 Zugriffsmöglichkeiten wenn einem Mal die Bude abfackelt.
#179Report
03.01.2012
Wie kommst Du darauf, daß ein Backup mittels NAS etwas anderes wäre als ein Backup auf eine externe Festplatte?
Hier ist nur der Anschluss verschieden. Das Prinzip genau das Gleiche....
Und muß ein Rechner nicht eine gewisse Zeit laufen um 2TB in die Cloud zu sichern? ;)
Hier ist nur der Anschluss verschieden. Das Prinzip genau das Gleiche....
Und muß ein Rechner nicht eine gewisse Zeit laufen um 2TB in die Cloud zu sichern? ;)
#180Report
Topic has been closed
Alternativ kannst Du Dir auch selbst eine externe Festplatte zusammenbauen. Kauf Dir ein Leergehäuse (evt mit Lüfter) und dann je eine stromsparende 5400er 3.5" Platte
Diese haben dann auch weniger thermische Probleme
(bei einer fertigen Lösung weiß man ja leider nie, was verbaut wurde)
Leider ist es ja so, daß die Kosten für eine 2.5" Platte gleicher Kapazität ungefähr das Doppelte einer 3.5" Platte betragen
Und aktuell würd ich sowieso überhaupt keine Platten kaufen weil das reine Geldverschwendung wäre