MIT entwickelt Technologie für schnellere Seitenladezeiten: Polaris
mat 11.03.2016 - 12:58 1826 11
mat
AdministratorLegends never die
|
Anstatt Stylesheets, Javascripts und andere Ressourcen per HTML in meist schlecht optimierter, zu wenig asynchroner Reihenfolge abzuarbeiten, soll Polaris schon im Request diese Abhängigkeiten einfordern und dadurch optimal verarbeiten können. Es soll sich um einen Performance-Boost von bis zu 34% handeln. Dafür muss der Server und der Browser diese Technolgie beherrschen, die allem Anschein nach als Open Source veröffentlicht werden soll. MIT May Have Just Given the Web a Huge Speed BoostThe web can be dog slow, but some researchers at MIT are now tackling the issue head on. Link: motherboard.vice.com
|
pinkey
Here to stay
|
Gestern schon gelesen, hört sich eigentlich ziemlich gut an
|
Neo-=IuE=-
Here to stay
|
Professionelle ADCs (Application Delivery Controller = sowas wie der Nachfolger von Loadbalancern die halt viel mehr können), machen so etwas ähnliches und noch viel mehr schon ein bisschen länger. z.B. http://www.radware.com/Products/FastView/
Bearbeitet von Neo-=IuE=- am 11.03.2016, 13:08
|
TOM
VereinsmitgliedOldschool OC.at'ler
|
Hmm.... MIT bastelt an was (Polaris), Google bastelt an was (AMP https://www.ampproject.org/), Facebook bastelt an was (Name entfallen) Das Netz ist aufgeblät und hässlich geworden.. maybe sollten sie sich zu einem Standard zusammenraufen der möglichst wenig Aufwand verursacht und rückwärtskompatibel ist - noch ein W@P braucht's nicht
|
InfiX
she/her
|
vielleicht sollten sie auch einfach aufhören alles unnötig aufzublähen.
|
mat
AdministratorLegends never die
|
Hmm.... MIT bastelt an was (Polaris), Google bastelt an was (AMP https://www.ampproject.org/), Facebook bastelt an was (Name entfallen) Google AMP ist nur für mobile Geräte. Facebook - meinst du Instant Articles? Finde ich nicht ganz vergleichbar. Das große Problem ist ja eigentlich nicht das Web, sondern die Web-Entwickler. Es gibt entweder zu wenig Know-how oder zu wenig Zeit. Man könnte aus jeder Webseite noch Performance herausholen. Gerade im Bereich Stalling und asynchrones Laden sind viele Webseiten ein Graus. Speziell welche mit undurchschaubaren Frameworks, zahlreichen Plugins und dergleichen. Da werden die größten Fehler begangen und das ist auch am schwierigsten aufzuräumen. So eine Technologie könnte das ganz ohne Zutun von Web-Entwicklern.
|
smashIt
master of disaster
|
100% js entfernen, 99% css raus den rest in ein zip packen damits nicht in 37194618889 anfragen ausgeliefert werden muss und schon is das moderne netz wieder so schnell wie 1995
ein hoch auf den fortschritt!!!!
|
kleinerChemiker
Here to stay
|
100% js entfernen, 99% css raus den rest in ein zip packen damits nicht in 37194618889 anfragen ausgeliefert werden muss und schon is das moderne netz wieder so schnell wie 1995
ein hoch auf den fortschritt!!!! In ein zip geht nicht, man muß ja Inhalt, Skripts, Apps und viel weitere Sch... von mind. 50 anderen Seiten laden. Wenn man nicht von mindestens 50 anderen Domains nachläd, ist man nicht in
|
XelloX
Nasenbohrer deluxe
|
ich hab keine probleme mit den ladezeiten von oc.at. die anderen seiten haben probleme
|
rastullah
Here to stay
|
Solange wir hier mit UPC surfen müssen is eh egal wie schnell sich eine Seite "laden könnte"
|
Smut
takeover&ether
|
Google AMP ist nur für mobile Geräte. Facebook - meinst du Instant Articles? Finde ich nicht ganz vergleichbar.
Das große Problem ist ja eigentlich nicht das Web, sondern die Web-Entwickler. Es gibt entweder zu wenig Know-how oder zu wenig Zeit. Man könnte aus jeder Webseite noch Performance herausholen. Gerade im Bereich Stalling und asynchrones Laden sind viele Webseiten ein Graus. Speziell welche mit undurchschaubaren Frameworks, zahlreichen Plugins und dergleichen. Da werden die größten Fehler begangen und das ist auch am schwierigsten aufzuräumen. So eine Technologie könnte das ganz ohne Zutun von Web-Entwicklern. Quick und SPDY/http2 gibt es halt schon. Stellt sich die Frage wieviel mehr das dann im Vergleich wirklich bringt. das Problem ist aber meiner Meinung selten der Transport sondern vielmehr die überforderten Browser. Egal wie gut/schnell sie werden, irgendeine Clickbait Seite schafft es immer langsam zu sein. im großen und Ganzen funktioniert das Web aber mit adblock und noscript schon verdammt schnell - selbst wenn es 1/3 schneller wäre, würde es kaum auffallen
|
COLOSSUS
AdministratorGNUltra
|
Professionelle ADCs (Application Delivery Controller = sowas wie der Nachfolger von Loadbalancern die halt viel mehr können), machen so etwas ähnliches und noch viel mehr schon ein bisschen länger. z.B. http://www.radware.com/Products/FastView/ Klingt wie mod_pagespeed et al. fuer Firmen mir zu viel Geld. (Und sowas ist auch nur eine suboptimale Loesung, die ein kompetentes Entwickler-Team von Back- bis Frontend nicht adaequat ersetzen kann.)
|