Hét vraag- en antwoordplatform van Nederland

Hoe krijg ik zoveel mogelijk tijdwinst met parren van winrar bestanden?

Ik heb een bestand van 400 GB wat ik heb gesplitst met WinRaR. Voor de zekerheid wil ik toch par. bestanden maken mocht er een deel beschadigd raken. Ik wilde het via een mini-pc laten parren met Intel Celeron en een 2 TB intern hdd met 5400 rpm. Maar dat duurt maar liefst 49 uur!

Daarom wil ik kijken hoe ik de tijdsduur kan verkorten. Ik heb nog een PC met Intel Core i7 met een 7200 rpm HDD. Zou ik daarmee al een aanzienlijke tijdwinst kunnen krijgen?

Quickpar maakt gebruikt van 1 core lees ik net, hoe kan ik ervoor zorgen dat hij allevier de cores gebruikt?

7 jaar geleden
in: Software
826

Heb je meer informatie nodig om de vraag te beantwoorden? Reageer dan hier.

Het beste antwoord

Aangezien je niet via Usenet gaat werken kun je vrij spelen met de source block count en de redundancy. Waarschijnlijk is het in jouw situatie het beste om de Source Block Count slider naar links te trekken (en dus de Block Size te vergroten), en dan de Redundancy slider in te stellen op hoe veel redundancy je wilt hebben.

De vraag is of het de moeite waard is om het überhaupt te doen als het zo lang duurt... Maar ja, 't is wel een halve TB natuurlijk. Je (s?!)FTP upload gaat toch al ontzettend lang duren dus die ga je ook gewoon overnacht aan moeten laten staan.

Als je alles wilt voorbereiden en dan alles in één keer wilt overhalen, met zo min mogelijk kans op daarna opnieuw een upload operatie te hoeven doen, dan kan het aanmaken van par files handig zijn, maar je kunt natuurlijk ook gewoon de upload aanzetten en dan uiteindelijk als je alles uitpakt kijken waar het mis is gegaan (if at all) en dan die files specifiek opnieuw doen, of als het een boel kleine stukjes in een boel files zijn eventueel dan later nog par files maken en die overzetten (om bandbreedte en uploadtijd te besparen).

Zeg, is het niet gewoon makkelijker een keer met die harddisk in kwestie naar je opa te gaan en 'm daar rechtstreeks aan de machine te hangen waar de data heen moet?

Toegevoegd na 4 minuten:
Overigens denk ik niet dat je Quickpar kunt aanpassen naar een multicore processing variant. Maar misschien zijn er tegenwoordig wel betere varianten beschikbaar dan Quickpar.
(Lees meer...)
Verwijderde gebruiker
7 jaar geleden
Eric1993
7 jaar geleden
@SadBunny Mijn opa zit vaak in het buitenland waardoor ik dus geen direct toegang heb op de NAS. Zal ik de block size vergroten tot het maximum? En hoeveel Redunancy is het slimste bij PAR2 ? Ik dacht zelf meer aan 10% Ik ga Multipar gebruiken, die schijnt alle cores te gebruiken.
Verwijderde gebruiker
7 jaar geleden
Er is niet zoiets als het "slimste" percentage redundancy; het is gewoon hoe veel extra pariteitsdata je wilt maken om eventuele fouten in de data overdracht te kunnen opvangen. De kans op fouten in de overdracht is niet heel groot, maar de dataset wel, dus 10% lijkt me meer dan genoeg (da's al 40 GB extra data om over te dragen!). Maar het maken van pariteitsdata is intensief werk, zeker op zo'n enorme dataset, dus een licht machientje daarvoor gebruiken is misschien niet het handigst. Weet je wat je anders doet? Je zet de massieve overdrachtsoperatie vast aan (dat gaat ook al lang genoeg duren) en terwijl je aan het overdragen bent laat je de par files bouwen. Het overdragen kost bijna geen CPU kracht, dus dat zou best naast elkaar moeten kunnen lopen. Dan sla je twee vliegen in een klap.
Eric1993
7 jaar geleden
@ SadBunny Ik ga het parren voortaan ook doen op mijn pc met een Intel Core i7. De Intel Celeron part een bestand van 50 GB in 6uur en de Intel Core i7 doet dat in 30 minuten, wat een verschil!
Eric1993
7 jaar geleden
@SadBunny Nog een vraag: Ik wil het backuppen naar de Acronis Cloud met behulp van het backup software van Acronis. Kan er alsnog iets fout gaan bij het uploaden? Het upload wordt automatisch gevalideerd door de software.
Verwijderde gebruiker
7 jaar geleden
Er kan theoretisch altijd wel iets foutgaan natuurlijk, maar de kans nadert naar nul als de overgedragen bestanden met een checksum gevalideerd worden bij het overdragen. Je par files maak je voor als dat gebeurt. Wat je "op bestemming" doet is eerst de hele dataset nogmaals valideren (met een van de par files). Als er dan iets faalt in de validatie dan kun je met behulp van de par files de gefaalde stukjes repareren. (Met 10% redundancy kun je dus alle data repareren als er maximaal 10% data stuk is, en daarbij maakt het niet uit of die 10% bestaat uit 2 missende files of 10% brakke data in elke file, dat is het mooie van het par idee.)
Eric1993
7 jaar geleden
@ SadBunny Bedankt voor uw advies. Ik heb besloten om gewoon PAR files te maken, ook al upload ik het naar de Cloud. Beter dat het zekere voor het onzekere.

Weet jij het beter..?

Het is niet mogelijk om je eigen vraag te beantwoorden Je mag slechts 1 keer antwoord geven op een vraag Je hebt vandaag al antwoorden gegeven. Morgen mag je opnieuw maximaal antwoorden geven.

0 / 2500
Gekozen afbeelding