neues kompressionsverfahren
rettich 11.01.2002 - 10:29 1116 21
Guest
Deleted User
|
von http://www.heise.de/newsticker/data/hps-10.01.02-000/ZeoSyncs Mitteilungen wollen nun darauf hinweisen, dass sich Datensätze, die laut Shannon etwa um einen Faktor zehn komprimierbar sein sollten, stattdessen ohne praktisch bedeutsame Verluste um das Vielhundertfache verdichten lassen. Das Unternehmen will den so genannten Zero Space Tuner mit Binärbeschleunigung, der auf Prinzipien klassischer Physik, statistischer Mechanik und Quantentheorie beruhen soll, im Jahr 2003 auf den Markt bringen und verhandelt zurzeit nach eigenen Worten mit Chipherstellern und einem Filmproduzenten aus Hollywood über strategische Partnerschaften. kann mir wer bitte erklären, wie das funktionieren soll, oder warum heise.de sich von so einer dämlichen meldung (besonders die fettgeschriebenen sachen beachten) an der nase herumführen lässt!?
|
HP
Legend Moneymaker
|
Im Webstandard habens schon ordentlich geflamed, wie lame sie sind , aber heise? Pffff ...
|
machiavelli
OC Addicted
|
..na ja, die haben zur sicherheit eh erwähnt das es nur ein scherz sein könnte... edit: steht sogar "schlechter Scherz" dort
Bearbeitet von machiavelli am 11.01.2002, 10:38
|
Guest
Deleted User
|
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!?
|
JC
AdministratorDisruptor
|
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!?
ROFL das kenn ich doch woher
|
HP
Legend Moneymaker
|
|
DirtyHarry
aka robobimbo
|
ich hab auch ein kopressionsverfahren entwickelt....
dur schickst alle daten an dev/nul und merkst dir nur das löschdatum/zeit. mittels einer zeitfeedbackschleiffe (allerdings noch recht buggy) gehst beim entpacken zum zeitpunkt des löschvorganges zurück und holst dir die daten zurück....
ist doch w00t, oder?
ciao
Harry
|
Ringding
Pilot
|
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!? YES! Der Thermodynamische Fluxkompensator Alle paar Jahre kommt halt wieder mal so ein tolles Kompressionsverfahren
|
HaBa
LegendDr. Funkenstein
|
ich hab auch ein kopressionsverfahren entwickelt....
dur schickst alle daten an dev/nul und merkst dir nur das löschdatum/zeit. mittels einer zeitfeedbackschleiffe (allerdings noch recht buggy) gehst beim entpacken zum zeitpunkt des löschvorganges zurück und holst dir die daten zurück....
ist doch w00t, oder?
ciao
Harry Meins ist noch einfacher, funktioniert sogar ohne deine buggy zeitfeedbackschleife Einfach alle Daten mit Null multiplizieren. Zum Entpacken einfach durch Null dividieren. Machts euch keine Hoffnungen, Patenatanmeldung läuft schon Ahja, und mein Verfahren beruht auf elementarsten Mathematischen Funktionen (bzw. den Fehlern die Erstklässer damit machen)
|
Murph
Nerd
|
|
Newbie aka Stiletto
... the pelvis!
|
pah !!! seitdem ich brute force intus hab, rechne ich nur mehr brute force ..... hurga!
|
DirtyHarry
aka robobimbo
|
Einfach alle Daten mit Null multiplizieren.
Zum Entpacken einfach durch Null dividieren. noch ein algorithmus: ich trenne die Daten in Nullen und Einsen, komprimiere beide getrennt. Beim Dekomprimieren habe ich dann die richtigen Daten, nur in der falschen Reihenfolge oder: Es gibt ein 3-Stunden-Video zu dem Thema "Spin-Harmonizer" ich habs mal im Relational Differentiation Encoding-Format als Anlage gepostet. Viel Spaß = 00101010110101010110011 PS: Oups, auf dem ersten Teil fehlen 20Minuten, hier ist der Rest. 10111 oder Das Packprogramm erstellt neben der gepackten Datei einen speziellen Decompressor... Das einzige Problem ist nun, dass man die gepackte Datei nur mit dem Decompressor auspacken kann, der extra für diese Datei erstellt wurde. So einfach ist das! Und über die größe des Decompressors wird eh nichts ausgesagt oder Da musst du zunächst die Beschleunigung ber der Übertragung eines Bits ausrechnen und dann erhältst du nach F=m*a die Kraft, mit der das Bit am anderen Ende einschlägt. Vorsicht bei der Verwendung von Bits aus dem C64, die haben noch ein sehr hohes Gewicht ( deswegen konnte man dazumal noch nicht so viel übertragen). Die giantische Kompressionsrate kommt nun dadurch Zustande, dass mehrere Bits mit einem Vielfachen der üblichen Übertragungsgeschwindigkeit in die Speicherzellen gepresst werden und sich dort quantenmechanisch verschränken. Die verwendeten Datenträger weissen dann auch ein höheres Gewicht auf. Mal ein Beispiel in c: int main() { int a; a= 1; a= 3; a= 12938; // a enthält bei entsprechend schneller Programmausführung // die 3 Werte 1, 3 und 12938 } :-) ciao Harry
|
HaBa
LegendDr. Funkenstein
|
ROFL
|
DirtyHarry
aka robobimbo
|
einen hab ich noch....
Eine andere Version arbeitet mit Paralleluniversen, wo in jedem Universum die Dekompression von 1 andere Daten ergibt. Die Applikation beamt einen dann nur in das entsprechende Paralleluniversum (auch noch sehr buggy). In unserem Universum ergibt die Dekompression von 1 leider nur ein blödes Videokasetten-Verwaltungsprogramm für den Sinclair.
ciao
Harry
|
noledge
CWNE #540
|
das beste verfahren is schon von mir copyrighted... egal wie groß die datenmenge ist, sie wird auf ein zeichen komprimiert. und so funktionierts: wir haben in mathe gelernt, das eine zahl, die durch 0 dividiert wird, unendlich groß wird. dies kann annährungstechnisch bewiesen werden: 3/1 = 3 3/0,1 = 30 3/0.01 = 300 3/0,000001 = 3000000 jeder sieht, dass wenn die zahl kleiner wird, das ergebnis immer grösser -> in fakto bei 0 unendlich. 3/0= unendlich man lernt ebenfalls, dass eine multiplikation eine division umkehr und vice versa. beweis: 3*5=15 15/5=3 15/3=5 daraus ergibt sich: unendlich * 0 = ausgangszahl beispiel: 5 / 0 = unendlich unendlich * 0 = 5 (!) ergo: ganzes file durch 0 dividieren, neue filegröße: 1 zeichen (unendlichkeitszeichen) zum entpacken mit 0 multiplizieren -> ausgangsfile. es ist so einfach! noli PS:
|