"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

neues kompressionsverfahren

rettich 11.01.2002 - 10:29 1116 21
Posts

Guest

Deleted User
Registered: n/a
Location:
Posts: n/a
von http://www.heise.de/newsticker/data/hps-10.01.02-000/

Zitat
ZeoSyncs Mitteilungen wollen nun darauf hinweisen, dass sich Datensätze, die laut Shannon etwa um einen Faktor zehn komprimierbar sein sollten, stattdessen ohne praktisch bedeutsame Verluste um das Vielhundertfache verdichten lassen. Das Unternehmen will den so genannten Zero Space Tuner mit Binärbeschleunigung, der auf Prinzipien klassischer Physik, statistischer Mechanik und Quantentheorie beruhen soll, im Jahr 2003 auf den Markt bringen und verhandelt zurzeit nach eigenen Worten mit Chipherstellern und einem Filmproduzenten aus Hollywood über strategische Partnerschaften.

kann mir wer bitte erklären, wie das funktionieren soll, oder warum heise.de sich von so einer dämlichen meldung (besonders die fettgeschriebenen sachen beachten) an der nase herumführen lässt!? :confused:

HP

Legend
Moneymaker
Registered: Mar 2000
Location: Wien
Posts: 21813
Im Webstandard habens schon ordentlich geflamed, wie lame sie sind :cool:, aber heise? Pffff ... :rolleyes:

machiavelli

OC Addicted
Avatar
Registered: Oct 2001
Location: x
Posts: 993
..na ja, die haben zur sicherheit eh erwähnt das es nur ein scherz sein könnte...:rolleyes:

edit: steht sogar "schlechter Scherz" dort:D
Bearbeitet von machiavelli am 11.01.2002, 10:38

Guest

Deleted User
Registered: n/a
Location:
Posts: n/a
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!? :eek:


:D

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
Zitat von rettich
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!? :eek:


:D
ROFL

das kenn ich doch woher :D

HP

Legend
Moneymaker
Registered: Mar 2000
Location: Wien
Posts: 21813
Zitat von rettich
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!? :eek:


:D
w00t! :D

DirtyHarry

aka robobimbo
Avatar
Registered: Apr 2001
Location: outer space
Posts: 464
ich hab auch ein kopressionsverfahren entwickelt....

dur schickst alle daten an dev/nul und merkst dir nur das löschdatum/zeit. mittels einer zeitfeedbackschleiffe (allerdings noch recht buggy) gehst beim entpacken zum zeitpunkt des löschvorganges zurück und holst dir die daten zurück....

ist doch w00t, oder?

ciao

Harry

Ringding

Pilot
Avatar
Registered: Jan 2002
Location: Perchtoldsdorf/W..
Posts: 4300
Zitat von rettich
oder haben wir alle einfach die vielfältigen einsatzmöglichkeiten des flux.kompensators übersehen!?

YES! :D
Der Thermodynamische Fluxkompensator :D

Alle paar Jahre kommt halt wieder mal so ein tolles Kompressionsverfahren :)

HaBa

Legend
Dr. Funkenstein
Avatar
Registered: Mar 2001
Location: St. Speidl / Gle..
Posts: 19714
Zitat von robobimbo
ich hab auch ein kopressionsverfahren entwickelt....

dur schickst alle daten an dev/nul und merkst dir nur das löschdatum/zeit. mittels einer zeitfeedbackschleiffe (allerdings noch recht buggy) gehst beim entpacken zum zeitpunkt des löschvorganges zurück und holst dir die daten zurück....

ist doch w00t, oder?

ciao

Harry

Meins ist noch einfacher, funktioniert sogar ohne deine buggy zeitfeedbackschleife :D

Einfach alle Daten mit Null multiplizieren.

Zum Entpacken einfach durch Null dividieren.

Machts euch keine Hoffnungen, Patenatanmeldung läuft schon :D

Ahja, und mein Verfahren beruht auf elementarsten Mathematischen Funktionen (bzw. den Fehlern die Erstklässer damit machen) :D :D :D

Murph

Nerd
Avatar
Registered: Dec 2001
Location: Vienna
Posts: 9236
Zitat von HaBa
Einfach alle Daten mit Null multiplizieren.

Zum Entpacken einfach durch Null dividieren.

w00000000000000000t!!!!!!!!! :D :D :D :D :D

Newbie aka Stiletto

... the pelvis!
Avatar
Registered: Apr 2001
Location: Fonyód
Posts: 1426
pah !!! seitdem ich brute force intus hab, rechne ich nur mehr brute force ..... hurga!

DirtyHarry

aka robobimbo
Avatar
Registered: Apr 2001
Location: outer space
Posts: 464
Zitat von HaBa
Einfach alle Daten mit Null multiplizieren.

Zum Entpacken einfach durch Null dividieren.

noch ein algorithmus:
ich trenne die Daten in Nullen und Einsen, komprimiere beide getrennt. Beim Dekomprimieren habe ich dann die
richtigen Daten, nur in der falschen Reihenfolge :(

oder:

Es gibt ein 3-Stunden-Video zu dem Thema "Spin-Harmonizer" ich habs mal im Relational Differentiation Encoding-Format als Anlage gepostet. Viel Spaß =:)

00101010110101010110011

PS:
Oups, auf dem ersten Teil fehlen 20Minuten, hier ist der Rest.

10111

oder

Das Packprogramm erstellt neben der gepackten Datei einen speziellen
Decompressor... Das einzige Problem ist nun, dass man die gepackte
Datei nur mit dem Decompressor auspacken kann, der extra für diese
Datei erstellt wurde. So einfach ist das! Und über die größe des
Decompressors wird eh nichts ausgesagt

oder

Da musst du zunächst die Beschleunigung ber der Übertragung eines Bits ausrechnen und dann erhältst du nach F=m*a die Kraft, mit der das Bit am anderen Ende einschlägt. Vorsicht bei der Verwendung von Bits aus dem C64, die haben noch ein sehr hohes Gewicht ( deswegen konnte man dazumal noch nicht so viel übertragen). Die giantische Kompressionsrate kommt nun dadurch Zustande, dass mehrere Bits mit einem Vielfachen der üblichen Übertragungsgeschwindigkeit in die Speicherzellen gepresst werden und sich dort quantenmechanisch verschränken. Die verwendeten Datenträger weissen dann auch ein höheres Gewicht auf.

Mal ein Beispiel in c:

int main()
{
int a;

a= 1;
a= 3;
a= 12938; // a enthält bei entsprechend schneller Programmausführung
// die 3 Werte 1, 3 und 12938
}


:-)



ciao

Harry

HaBa

Legend
Dr. Funkenstein
Avatar
Registered: Mar 2001
Location: St. Speidl / Gle..
Posts: 19714
ROFL

DirtyHarry

aka robobimbo
Avatar
Registered: Apr 2001
Location: outer space
Posts: 464
einen hab ich noch....

Eine andere Version arbeitet mit Paralleluniversen, wo in jedem Universum die Dekompression von 1 andere Daten ergibt. Die Applikation beamt einen dann nur in das entsprechende Paralleluniversum (auch noch sehr buggy). In unserem Universum ergibt die Dekompression von 1 leider nur ein blödes Videokasetten-Verwaltungsprogramm für den Sinclair.

ciao

Harry

noledge

CWNE #540
Avatar
Registered: Apr 2001
Location: ::1
Posts: 6837
das beste verfahren is schon von mir copyrighted... egal wie groß die datenmenge ist, sie wird auf ein zeichen komprimiert.

und so funktionierts:

wir haben in mathe gelernt, das eine zahl, die durch 0 dividiert wird, unendlich groß wird. dies kann annährungstechnisch bewiesen werden:

3/1 = 3
3/0,1 = 30
3/0.01 = 300
3/0,000001 = 3000000

jeder sieht, dass wenn die zahl kleiner wird, das ergebnis immer grösser -> in fakto bei 0 unendlich.

3/0= unendlich

man lernt ebenfalls, dass eine multiplikation eine division umkehr und vice versa.

beweis:

3*5=15
15/5=3
15/3=5

daraus ergibt sich:

unendlich * 0 = ausgangszahl

beispiel:

5 / 0 = unendlich
unendlich * 0 = 5 (!)

ergo: ganzes file durch 0 dividieren, neue filegröße: 1 zeichen (unendlichkeitszeichen) zum entpacken mit 0 multiplizieren -> ausgangsfile.

es ist so einfach!

noli

PS: :D
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz