symlink.ch
Wissen Vernetzt - deutsche News für die Welt
 
symlink.ch
FAQ
Mission
Über uns
Richtlinien

Moderation
Einstellungen
Story einsenden

Suchen & Index
Ruhmeshalle
Statistiken
Umfragen

Redaktion
Themen
Partner
Planet

XML | RDF | RSS
PDA | WAP | IRC
Symbar für Opera
Symbar für Mozilla

Freunde
Benutzergruppen
LUG Switzerland
LUG Vorarlberg
LUGen in DE
SIUG
CCCZH
Organisationen
Wilhelm Tux
FSF Europe
Events
LinuxDay Dornbirn
BBA Schweiz
CoSin in Bremgarten AG
VCFe in München
Menschen
maol
Flupp
Ventilator
dawn
gumbo
krümelmonster
XTaran
maradong
tuxedo

 
Wikipedias Pläne für die Zukunft
Veröffentlicht durch Ventilator am Donnerstag 30. Dezember 2004, 09:41
Aus der wiki-tiki-teriyaki Abteilung
Wikipedia Heise schreibt in einem langen Artikel, dass bei Wikipedia technische und administrative Veränderungen eingeführt werden sollen. So soll GZip für die Datenbank zum Einsatz kommen und vor den Webserver ein Squid Cache gestellt werden. Mehr gibts im Heise-Artikel.

Spammer haben es schwer | Druckausgabe | Earthquake Disaster for sale. Check out deals now!  >

 

 
symlink.ch Login
Login:

Passwort:

extrahierte Links
  • Heise
  • Wikipedia
  • schreibt
  • Wikipedia
  • Squid Cache
  • Heise-Artikel
  • Mehr zu Wikipedia
  • Auch von Ventilator
  • Diese Diskussion wurde archiviert. Es können keine neuen Kommentare abgegeben werden.
    die Antwort auf Google (Score:0)
    Von Anonymer Feigling am Thursday 30. December 2004, 12:04 MEW (#1)
    mir fällt auf, dass Wikipedia Begriffe immer besser auf dem englischen Google indiziert werden (obwohls ziemlich lange gedauert hat). Das freut mich sehr, denn Wikipedia ist eine sehr gute Infoquelle.

    ich sehe eine Medienrevolution kommen! Freie Inhalte (creative commons, GNU Document License, ...) werden dominieren.

    Re: die Antwort auf Google (Score:1)
    Von lax am Thursday 30. December 2004, 12:36 MEW (#2)
    (User #1741 Info)

    mir fällt auf, dass Wikipedia Begriffe immer besser auf dem englischen Google indiziert werden (obwohls ziemlich lange gedauert hat).

    Das ist kein Wunder; da Google's Pageranking auf Links anderer Seiten basiert haben neue ubekannte Seiten schlechte Chancen ein gutes Ranking zu bekommen, auch wenn sie bessere Ergebnisse liefern würden.. Ich habe mit Yahoo! Search (Firefox Search Plugin) mittlerweile bessere Erfahrung gemacht.



    --
    Hurra, das ist die Realpräsenz!
    Optimieren! (Score:0)
    Von Anonymer Feigling am Thursday 30. December 2004, 18:47 MEW (#3)
    Ich frage mich, ob die dort wirklich wissen, was die tun. Als ich letztens Mediawiki in der Hand hatte, habe ich eklatante Programmierfehler gefunden, welche die Performance der Software so richtig in den Keller drückten. Zum Beispiel ist mir nicht verständlich, wie man bei jedem Aufruf den Wikitext neu übersetzen kann. Da wäre es sinnvoller gewesen, einmal die Wikitext- und einmal die HTML-Version in der Datenbank zu speichern. Dann müsste man nur einmal und nicht bei jedem Aufruf den Wikitext konvertieren. Auch wäre es sinnvoller, das Caching direkt auf Applikations- oder maximal Webserver-Ebene zu applizieren. Das lässt sich viel besser als mit Squid steuern. Für lighttpd gibt es sogar ein spezielles Caching-Modul, das dank Benutzung von HTTP-Features sogar richtig Traffic spart. Wenn ich dann noch im Heise-Artikel lesen muss, dass 83 Prozent der CPU-Zeit für das Erzeugen von Bytecode verwendet wird, greife ich mir endgültig an den Kopf. Es gibt seit Jahren Bytecode-Caches für PHP, sogar freie. TurckMMCache, der jetzt eAccelerator heisst, ist GPL und sogar schneller als die Zend-Software. Performance-Gewinne um 400 bis 500 Prozent, ohne sich gross anstrengen zu müssen. Die sollten das Geld lieber in gute Programmierer und Admins anstatt in Server pumpen.
    Re: Optimieren! (Score:0)
    Von Anonymer Feigling am Thursday 30. December 2004, 22:51 MEW (#4)
    Wikipedia verwendet TurckMMCache.
    Re: Optimieren! (Score:0)
    Von Anonymer Feigling am Thursday 30. December 2004, 23:07 MEW (#5)
    Wie können dann 83 Prozent der CPU-Zeit für Bytecode-Erzeugung verwendet werden? Die werden doch nicht wie die Irren ihre Scripte verändern?
    Ha! (Score:0)
    Von Anonymer Feigling am Friday 31. December 2004, 05:51 MEW (#6)
    Technische Veränderungen, pah! Die sollten erst
    mal lizenztechnische Änderungen einbauen und die
    GNU "Free" Documentation License durch eine freie
    Lizenz ersetzen, sodaß jeder die Inhalte nutzen
    kann, auch die, deren Browser temporäre Kopiën
    der Inhalte mit chmod 0600 auf einer Multiuser-
    Maschine erstellen.

    Re: Ha! (Score:2)
    Von XTaran (symlink /at/ deux chevaux /dot/ org) am Tuesday 04. January 2005, 19:08 MEW (#7)
    (User #129 Info) http://abe.home.pages.de/
    Das wird ungefähr so einfach, wie den Linux-Kernel unter eine BSD-Lizenz zu bringen. Was viel eher passieren wird, ist, daß die nächste Generation der GNU FDL dieses Problem nicht mehr haben wird.

    Denn an dieser Stelle hat Wikipedia angeblich mehr Macht gegenüber GNU als z.B. Debian. Denn Wikipedia ist das "Vorzeige-Projekt" der FDL, während die Meinung des Debian-Projektes den GNU-Leuten recht schnuppe scheint. Die haben nämlich auch das GNU-FDL-Problem und die GNU-Leuten meinten nur "Was geht uns das an?".

    --
    There is no place like $HOME
    Squid-Cache neu? (Score:2)
    Von XTaran (symlink /at/ deux chevaux /dot/ org) am Tuesday 04. January 2005, 19:10 MEW (#8)
    (User #129 Info) http://abe.home.pages.de/
    Also der Squid-Cache ist doch nix neues! Den gibt's doch schon seit mind. 'nem halben Jahr, eher länger. Jedenfalls war der in der Server-Dokumentation von Wikipedia schon dokumentiert als ich das letzte Mal reingesehen habe. Und das ist eine ganze Weile her.

    --
    There is no place like $HOME

    Linux User Group Schweiz
    Durchsuche symlink.ch:  

    Never be led astray onto the path of virtue.
    trash.net

    Anfang | Story einsenden | ältere Features | alte Umfragen | FAQ | Autoren | Einstellungen