-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
Hallo,
wir sollten uns in nächster Zeit mal etwas überlegen, wie wir eine skalierende Alternative zur bisherigen Netmon-API entwickeln:
Es ist ja bereits einmal vorgekommen, dass eine Tageszeitung Netmon (und damit die Api) in ihre Seite eingebaut hat und daraufhin unsere Serverlast ganz extrem in die Höhe schoss, weil plötzlich eine Seite, die ein x-Faches dessen, was wir an Besuchern haben, mit jedem Seitenaufruf direkt unseren bescheidenen Mysql-Server nutzt. Das skaliert sehr schlecht und sobald die API mal wieder von irgendwas großem eingebunden wird, haben wir wieder Probleme.
Da die Daten ohnehin nur alle 10 Minuten aktualisiert werden, könnte man, ohne dass es auch nur die geringste Einschränkung der Nutzbarkeit bedeutete, hierfür ein Caching einrichten, welches nur alle 10min die Daten von unseren Servern abruft und auf einer Maschine zwischenspeichert, die in der Lage ist, größere Lasten zu handeln - das könnte wiederum was allgemeines, zentrales (irgendein cloud-dienst) oder eben ein php-Skript auf dem Server des einbindenden sein (würde ich insofern präferieren, da dass dann genau dem Lastprofil entspräche was tatsächlich auf die Daten zukäme).
Denkbar wäre folgendes Skript:
Das Skript legt beim Aufruf einen Snapshot der von der API gelieferten Daten an und speichert diese auf der Platte - zB als Textdatei - der einbindenden Seite. Beim nächsten Aufruf wird - sofern diese Datei nicht älter als 10 Minuten ist, nicht mehr auf unsere Api sondern eben auf diese Textdatei zugegriffen und die API-Daten daher, also nicht mehr von unserem Server bezogen. Sind mehr als 10 Minuten vergangen, werden die Daten von der API neu gezogen.
Was haltet ihr davon? Stellen wir sowas in PHP zur Verfügung?
Viele Grüße, Eike Baran
Hi,
Am 31.08.2015 um 12:05 schrieb Eike Baran:
Was haltet ihr davon? Stellen wir sowas in PHP zur Verfügung?
Wir könnten über ein PHP-Script die API alle 10 Minuten eine XML irgendwo ablegen lassen und den api.phpAufruf auf diese Datei umbiegen lassen.
Ich denke dass sollte raltiv schnell machbar sein - für unsere Wbsite in OS machen wir es derzeit genauso.
Könnte ich mich mal ransetzen ;)
Vg,
Stefan
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
Wir könnten über ein PHP-Script die API alle 10 Minuten eine XML irgendwo ablegen lassen und den api.phpAufruf auf diese Datei umbiegen lassen.
bliebe nur noch, das "irgendwo" genauer zu spezifizieren, am besten wäre imho auf den Servern der einbindenden Seite...
Gruß, Eike
Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Somit wären keine Änderungen seiten der API-Nutzer notwendig.
Am 31. August 2015 12:25:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de:
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
Wir könnten über ein PHP-Script die API alle 10 Minuten eine XML irgendwo ablegen lassen und den api.phpAufruf auf diese Datei umbiegen lassen.
bliebe nur noch, das "irgendwo" genauer zu spezifizieren, am besten wäre imho auf den Servern der einbindenden Seite...
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5CurAAoJEIu3uYB6vkH4RhsQAKHrs6Gt1XgpeJZjbxn8mS2n xV94cRPkfJaXgruPFd3JuFHrSOso5Aufu5WJJtESBxd1bIcvZsY3yv/fFqaRWs2/ DhPhsq8BIDBeT27gVU2HEv4n8nLRv9fLdlokponFrbhA1/bzYsGiIyrWnxQI3v+d 9ggpj7+7oZB0374ILiB/bk0qFR0Xin/G4ZYLwh9p/O+riQF09XpnhyazIzoG7EyY QhR8Hincn0TJBnqISbPFFTk18euFjOkTdvP9XmCfUbrnhjDgNpwBMOO1yplbg1yE AJnPP2IrEaVizDjly2eU24cT/X0iRc4F6EvSSLGS8p9EgjEFl82F+USkvvIxS17Z zowe+DeDN0H+vtfQ5rlZKC3DDQfwcxJ7kq+Pgh3EFvvYh2e5C5ReykkGQmXYVr8c BO7w3KIlYzQQ3Fru3oKmYyXwV93IrvQiEnFNpLTITAygQ7y3YJ1E5rpTkr+LhddA 8pjQ1mpMq14LVuNIbtkOI6HdeZvKCcsjrByvjI9gdVAhpiwZg0IwJXdoXQFaQ9ex d5Ec/7clcd4qAesnSKB9TmvV2kH4tCXyB2UeHJ5K3zwlDualMgP+JUdo4ls1povS 0JSCnQgSIOHgQYc+S4Ctz8FZCftCbqkeSI6mhv57aVY6p0rnz7K42GT6lXF/Qn3u 8/hOVEymMN8eE1PeQLYj =hJo4 -----END PGP SIGNATURE----- _______________________________________________ Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote:
Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich die netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so, zumindest auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern müsste.
Gruß, Eike
Genau, daher würden wir uns die DB Zugriffe sparen. Es wären dann nur noch die nginx Aufrufe. Ich denke der Webseite würde schon wegen weniger DB Zugriffe begeistert sein ;)
Am 31. August 2015 12:36:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de:
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote:
Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich die netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so, zumindest auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern müsste.
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5C49AAoJEIu3uYB6vkH46tcP/RhCQ914WTKnQn+zY0Mie3vs xUeKxOjtPF61L4bpmySGxHIJHSTY6vAjWEu6ic050NYuef0YwNKhaqS0LXEBQKz7 Bz3QSX4WqzkrM60dBPIVQ5IHCVkucvPoZxgY+2I9+mj+pkea/xpUsKDGTFl87QZf NO5fkpIeQb5aWty+ZS13g5iRO/8os77qpTYRLZgmIPpaeUqgUyoEzS3PlsmAYfl2 EOlRKdxuoMr/p6/iucm4SEEQXIe0TNK5kP1Ai42BkJc28ziptQIXDAQeK4OiJORD 9VYX7lW9A2zUA1P9fqf1dyihhcKBJWuGrV9UDYre6cmuoVHIhvnStTq4gDcKEMUN 7K4UHxCZmH6R46hJz/wRuU4z9GXKRDTckodO3U8ZjJ+BNclq3Z6pPUaeRVcklwvo bpWFpUcEHPEFI+eEkUjaNERN/FqW0K9sjoPB7rDbwuYxmFlzxB2v8wJCRQQpqeZX bTDmycxLgtNkJDweNDZL8/SBjBcnYIkPqTXnipA+lq10soRAYStJNMxjNgpgxEPA dfdqAdkkoOHs4ndeYwv+HfGCugH5fSgAudNR0AsxnXxsTMH7DdIap6Q4iydQPc7E KPhsXzMsKQKkYcSa0VcPnjDPysvg8mX18iGn5jUuH1N8DqME1TdOh8IsTlzpyqdc Y57xSgruiCdKlTLeH4pp =B0e5 -----END PGP SIGNATURE----- _______________________________________________ Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Könnte man nicht auf dem gleichen Server wie dem nginx auch varnish laufen lassen und dort die lifetime der cache Objekte auf ein paar Minuten begrenzen? Dann würde man nicht nur die DB sondern auch nginx aufrufe sparen.
Wenn ich varnish korrekt verstanden habe müsste es doch für das besprochene Vorhaben des API cachings ideal sein oder nicht?
Am 31. August 2015 12:46:26 MESZ, schrieb Stefan stefan@osnabrueck.freifunk.net:
Genau, daher würden wir uns die DB Zugriffe sparen. Es wären dann nur noch die nginx Aufrufe. Ich denke der Webseite würde schon wegen weniger DB Zugriffe begeistert sein ;)
Am 31. August 2015 12:36:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de:
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote:
Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich die netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so, zumindest auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern müsste.
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5C49AAoJEIu3uYB6vkH46tcP/RhCQ914WTKnQn+zY0Mie3vs xUeKxOjtPF61L4bpmySGxHIJHSTY6vAjWEu6ic050NYuef0YwNKhaqS0LXEBQKz7 Bz3QSX4WqzkrM60dBPIVQ5IHCVkucvPoZxgY+2I9+mj+pkea/xpUsKDGTFl87QZf NO5fkpIeQb5aWty+ZS13g5iRO/8os77qpTYRLZgmIPpaeUqgUyoEzS3PlsmAYfl2 EOlRKdxuoMr/p6/iucm4SEEQXIe0TNK5kP1Ai42BkJc28ziptQIXDAQeK4OiJORD 9VYX7lW9A2zUA1P9fqf1dyihhcKBJWuGrV9UDYre6cmuoVHIhvnStTq4gDcKEMUN 7K4UHxCZmH6R46hJz/wRuU4z9GXKRDTckodO3U8ZjJ+BNclq3Z6pPUaeRVcklwvo bpWFpUcEHPEFI+eEkUjaNERN/FqW0K9sjoPB7rDbwuYxmFlzxB2v8wJCRQQpqeZX bTDmycxLgtNkJDweNDZL8/SBjBcnYIkPqTXnipA+lq10soRAYStJNMxjNgpgxEPA dfdqAdkkoOHs4ndeYwv+HfGCugH5fSgAudNR0AsxnXxsTMH7DdIap6Q4iydQPc7E KPhsXzMsKQKkYcSa0VcPnjDPysvg8mX18iGn5jUuH1N8DqME1TdOh8IsTlzpyqdc Y57xSgruiCdKlTLeH4pp =B0e5 -----END PGP SIGNATURE----- _______________________________________________ Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Das wäre eine Idee die wir mal testen müssten. Varnish liefert solche statischen Sachen nur aus, oder?
Am 31. August 2015 19:39:30 MESZ, schrieb Jan Matthias de Vries jmdv@mail.de:
Könnte man nicht auf dem gleichen Server wie dem nginx auch varnish laufen lassen und dort die lifetime der cache Objekte auf ein paar Minuten begrenzen? Dann würde man nicht nur die DB sondern auch nginx aufrufe sparen.
Wenn ich varnish korrekt verstanden habe müsste es doch für das besprochene Vorhaben des API cachings ideal sein oder nicht?
Am 31. August 2015 12:46:26 MESZ, schrieb Stefan stefan@osnabrueck.freifunk.net:
Genau, daher würden wir uns die DB Zugriffe sparen. Es wären dann nur noch die nginx Aufrufe. Ich denke der Webseite würde schon wegen weniger DB Zugriffe begeistert sein ;)
Am 31. August 2015 12:36:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de:
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote:
Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich die netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so,
zumindest
auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern
müsste.
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5C49AAoJEIu3uYB6vkH46tcP/RhCQ914WTKnQn+zY0Mie3vs xUeKxOjtPF61L4bpmySGxHIJHSTY6vAjWEu6ic050NYuef0YwNKhaqS0LXEBQKz7 Bz3QSX4WqzkrM60dBPIVQ5IHCVkucvPoZxgY+2I9+mj+pkea/xpUsKDGTFl87QZf NO5fkpIeQb5aWty+ZS13g5iRO/8os77qpTYRLZgmIPpaeUqgUyoEzS3PlsmAYfl2 EOlRKdxuoMr/p6/iucm4SEEQXIe0TNK5kP1Ai42BkJc28ziptQIXDAQeK4OiJORD 9VYX7lW9A2zUA1P9fqf1dyihhcKBJWuGrV9UDYre6cmuoVHIhvnStTq4gDcKEMUN 7K4UHxCZmH6R46hJz/wRuU4z9GXKRDTckodO3U8ZjJ+BNclq3Z6pPUaeRVcklwvo bpWFpUcEHPEFI+eEkUjaNERN/FqW0K9sjoPB7rDbwuYxmFlzxB2v8wJCRQQpqeZX bTDmycxLgtNkJDweNDZL8/SBjBcnYIkPqTXnipA+lq10soRAYStJNMxjNgpgxEPA dfdqAdkkoOHs4ndeYwv+HfGCugH5fSgAudNR0AsxnXxsTMH7DdIap6Q4iydQPc7E KPhsXzMsKQKkYcSa0VcPnjDPysvg8mX18iGn5jUuH1N8DqME1TdOh8IsTlzpyqdc Y57xSgruiCdKlTLeH4pp =B0e5 -----END PGP SIGNATURE----- _______________________________________________ Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Ich habe es selbst aus Zeitmangel leider noch nicht getestet daher kann ich nur zum theoretischen teil was sagen. Prinzipiell kann man den cache über eine script Sprache steuern sodass man Cache Objekten Timeouts und Refresh policies zuweisen kann. Wenn für die Anfrage dann bereits ein Objekt im RAM oder Swap besteht wird dieses ausgeliefert, andernfalls wird die Anfrage durchgereicht und das Ergebnisse gemäß der Regeln Gecached.
Am 31. August 2015 20:11:19 MESZ, schrieb Stefan stefan@osnabrueck.freifunk.net:
Das wäre eine Idee die wir mal testen müssten. Varnish liefert solche statischen Sachen nur aus, oder?
Am 31. August 2015 19:39:30 MESZ, schrieb Jan Matthias de Vries jmdv@mail.de:
Könnte man nicht auf dem gleichen Server wie dem nginx auch varnish laufen lassen und dort die lifetime der cache Objekte auf ein paar Minuten begrenzen? Dann würde man nicht nur die DB sondern auch nginx aufrufe sparen.
Wenn ich varnish korrekt verstanden habe müsste es doch für das besprochene Vorhaben des API cachings ideal sein oder nicht?
Am 31. August 2015 12:46:26 MESZ, schrieb Stefan stefan@osnabrueck.freifunk.net:
Genau, daher würden wir uns die DB Zugriffe sparen. Es wären dann nur noch die nginx Aufrufe. Ich denke der Webseite würde schon wegen weniger DB Zugriffe begeistert sein ;)
Am 31. August 2015 12:36:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de:
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote:
Es wäre doch einfacher auf dem netmon Server die XML zu
generieren,
und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich
die
netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so,
zumindest
auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern
müsste.
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5C49AAoJEIu3uYB6vkH46tcP/RhCQ914WTKnQn+zY0Mie3vs xUeKxOjtPF61L4bpmySGxHIJHSTY6vAjWEu6ic050NYuef0YwNKhaqS0LXEBQKz7 Bz3QSX4WqzkrM60dBPIVQ5IHCVkucvPoZxgY+2I9+mj+pkea/xpUsKDGTFl87QZf NO5fkpIeQb5aWty+ZS13g5iRO/8os77qpTYRLZgmIPpaeUqgUyoEzS3PlsmAYfl2 EOlRKdxuoMr/p6/iucm4SEEQXIe0TNK5kP1Ai42BkJc28ziptQIXDAQeK4OiJORD 9VYX7lW9A2zUA1P9fqf1dyihhcKBJWuGrV9UDYre6cmuoVHIhvnStTq4gDcKEMUN 7K4UHxCZmH6R46hJz/wRuU4z9GXKRDTckodO3U8ZjJ+BNclq3Z6pPUaeRVcklwvo bpWFpUcEHPEFI+eEkUjaNERN/FqW0K9sjoPB7rDbwuYxmFlzxB2v8wJCRQQpqeZX bTDmycxLgtNkJDweNDZL8/SBjBcnYIkPqTXnipA+lq10soRAYStJNMxjNgpgxEPA dfdqAdkkoOHs4ndeYwv+HfGCugH5fSgAudNR0AsxnXxsTMH7DdIap6Q4iydQPc7E KPhsXzMsKQKkYcSa0VcPnjDPysvg8mX18iGn5jUuH1N8DqME1TdOh8IsTlzpyqdc Y57xSgruiCdKlTLeH4pp =B0e5 -----END PGP SIGNATURE----- _______________________________________________ Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Moin,
allerdings zeigt Netmon oben rechts den Usernamen an, falls man eingeloggt ist, kann varnish sowas halb-statisches? Habs selbst noch nie benutzt, daher keine Ahnung.
Ich hatte mal bei einer sehr DB-intensiven Webseite sehr gute Erfolge mit dem eingebauten Caching von Smarty. Netmon benutzt Smarty als Template-Engine - evtl. auch ein möglicher Ansatz. Hat den Vorteil, dass das php-Skript selbst entscheiden kann, ob und was gecacht werden soll. Würde da gerne auch behilflich sein.
Gruß Pta
Am Montag, 31. August 2015 19:39:30 CEST schrieb Jan Matthias de Vries:
Könnte man nicht auf dem gleichen Server wie dem nginx auch varnish laufen lassen und dort die lifetime der cache Objekte auf ein paar Minuten begrenzen? Dann würde man nicht nur die DB sondern auch nginx aufrufe sparen.
Wenn ich varnish korrekt verstanden habe müsste es doch für das besprochene Vorhaben des API cachings ideal sein oder nicht?
Am 31. August 2015 12:46:26 MESZ, schrieb Stefan stefan@osnabrueck.freifunk.net: Genau, daher würden wir uns die DB Zugriffe sparen. Es wären dann nur noch die nginx Aufrufe. Ich denke der Webseite würde schon wegen weniger DB Zugriffe begeistert sein ;)
Am 31. August 2015 12:36:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de: -----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote: Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich die netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so, zumindest auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern müsste.
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5C49AAoJEIu3uYB6vkH46tcP/RhCQ914WTKnQn+zY0Mie3vs xUeKxOjtPF61L4bpmySGxHIJHSTY6vAjWEu6ic050NYuef0YwNKhaqS0LXEBQKz7 Bz3QSX4WqzkrM60dBPIVQ5IHCVkucvPoZxgY+2I9+mj+pkea/xpUsKDGTFl87QZf NO5fkpIeQb5aWty+ZS13g5iRO/8os77qpTYRLZgmIPpaeUqgUyoEzS3PlsmAYfl2 EOlRKdxuoMr/p6/iucm4SEEQXIe0TNK5kP1Ai42BkJc28ziptQIXDAQeK4OiJORD 9VYX7lW9A2zUA1P9fqf1dyihhcKBJWuGrV9UDYre6cmuoVHIhvnStTq4gDcKEMUN 7K4UHxCZmH6R46hJz/wRuU4z9GXKRDTckodO3U8ZjJ+BNclq3Z6pPUaeRVcklwvo bpWFpUcEHPEFI+eEkUjaNERN/FqW0K9sjoPB7rDbwuYxmFlzxB2v8wJCRQQpqeZX bTDmycxLgtNkJDweNDZL8/SBjBcnYIkPqTXnipA+lq10soRAYStJNMxjNgpgxEPA dfdqAdkkoOHs4ndeYwv+HfGCugH5fSgAudNR0AsxnXxsTMH7DdIap6Q4iydQPc7E KPhsXzMsKQKkYcSa0VcPnjDPysvg8mX18iGn5jUuH1N8DqME1TdOh8IsTlzpyqdc Y57xSgruiCdKlTLeH4pp =B0e5 -----END PGP SIGNATURE-----
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Wird der Login nicht über Cockies vorgehalten? Diese sollten natürlich nicht Gecached werden. Wenn ich das korrekt verstanden habe kann man das Elementbezogen konfigurieren.
Am 31. August 2015 20:35:13 MESZ, schrieb Peter Schmidt pta@dvv32.de:
Moin,
allerdings zeigt Netmon oben rechts den Usernamen an, falls man eingeloggt ist, kann varnish sowas halb-statisches? Habs selbst noch nie benutzt, daher keine Ahnung.
Ich hatte mal bei einer sehr DB-intensiven Webseite sehr gute Erfolge mit dem eingebauten Caching von Smarty. Netmon benutzt Smarty als Template-Engine - evtl. auch ein möglicher Ansatz. Hat den Vorteil, dass das php-Skript selbst entscheiden kann, ob und was gecacht werden soll.
Würde da gerne auch behilflich sein.
Gruß Pta
Am Montag, 31. August 2015 19:39:30 CEST schrieb Jan Matthias de Vries:
Könnte man nicht auf dem gleichen Server wie dem nginx auch varnish laufen lassen und dort die lifetime der cache Objekte auf ein paar Minuten begrenzen? Dann würde man nicht nur die DB sondern auch nginx aufrufe sparen.
Wenn ich varnish korrekt verstanden habe müsste es doch für das besprochene Vorhaben des API cachings ideal sein oder nicht?
Am 31. August 2015 12:46:26 MESZ, schrieb Stefan stefan@osnabrueck.freifunk.net: Genau, daher würden wir uns die DB Zugriffe sparen. Es wären dann nur noch die nginx Aufrufe. Ich denke der Webseite würde schon wegen weniger DB Zugriffe begeistert sein ;)
Am 31. August 2015 12:36:52 MESZ, schrieb Eike Baran eike.baran@uni-oldenburg.de: -----BEGIN PGP SIGNED MESSAGE----- Hash: SHA256
On 31.08.2015 12:29, Stefan wrote: Es wäre doch einfacher auf dem netmon Server die XML zu generieren, und jeder api.php aufruf leitet automatisch auf die XML.
Einfacher: Ja Aber einen Zugriff pro Besucher der "großen einbindenden Seite" auf unseren Server hätte man damit immernoch, auf amazon.de würde ich die netmon dann noch immer nicht einbinden wollen ;) ; wenn das Skript aber auf einem amazon-Server läge, ginge das problemlos.
Eine Verbesserung wäre ein solches Caching, welches zumindest die teuren DB-Zugriffe einsparen würde, aber vermutlich auch so,
zumindest
auf die Schnelle wäre das schon einmal eine merkliche Verbesserung, bei der - wie du richtig sagst - niemand externes etwas ändern müsste.
Gruß, Eike -----BEGIN PGP SIGNATURE----- Version: GnuPG v2
iQIcBAEBCAAGBQJV5C49AAoJEIu3uYB6vkH46tcP/RhCQ914WTKnQn+zY0Mie3vs xUeKxOjtPF61L4bpmySGxHIJHSTY6vAjWEu6ic050NYuef0YwNKhaqS0LXEBQKz7 Bz3QSX4WqzkrM60dBPIVQ5IHCVkucvPoZxgY+2I9+mj+pkea/xpUsKDGTFl87QZf NO5fkpIeQb5aWty+ZS13g5iRO/8os77qpTYRLZgmIPpaeUqgUyoEzS3PlsmAYfl2 EOlRKdxuoMr/p6/iucm4SEEQXIe0TNK5kP1Ai42BkJc28ziptQIXDAQeK4OiJORD 9VYX7lW9A2zUA1P9fqf1dyihhcKBJWuGrV9UDYre6cmuoVHIhvnStTq4gDcKEMUN 7K4UHxCZmH6R46hJz/wRuU4z9GXKRDTckodO3U8ZjJ+BNclq3Z6pPUaeRVcklwvo bpWFpUcEHPEFI+eEkUjaNERN/FqW0K9sjoPB7rDbwuYxmFlzxB2v8wJCRQQpqeZX bTDmycxLgtNkJDweNDZL8/SBjBcnYIkPqTXnipA+lq10soRAYStJNMxjNgpgxEPA dfdqAdkkoOHs4ndeYwv+HfGCugH5fSgAudNR0AsxnXxsTMH7DdIap6Q4iydQPc7E KPhsXzMsKQKkYcSa0VcPnjDPysvg8mX18iGn5jUuH1N8DqME1TdOh8IsTlzpyqdc Y57xSgruiCdKlTLeH4pp =B0e5 -----END PGP SIGNATURE-----
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Viele Grüße, Stefan
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Dev mailing list Dev@lists.ffnw.de https://lists.ffnw.de/mailman/listinfo/dev
Meine Idee Memcached
Wie stellte du dir die Kontrolle darüber vor das eine highload Instanz nicht direkt auf die srv Daten zugreift? Ich denke die Kontrolle und Steuerung muss von uns aus gehen. Wenn wir ihrgend eine Art cache haben könnte man auch das ganze auslagern auf einen content delivery Server oder cluster.