symlink.ch
Wissen Vernetzt - deutsche News für die Welt
 
symlink.ch
FAQ
Mission
Über uns
Richtlinien

Moderation
Einstellungen
Story einsenden

Suchen & Index
Ruhmeshalle
Statistiken
Umfragen

Redaktion
Themen
Partner
Planet

XML | RDF | RSS
PDA | WAP | IRC
Symbar für Opera
Symbar für Mozilla

Freunde
Benutzergruppen
LUG Switzerland
LUG Vorarlberg
LUGen in DE
SIUG
CCCZH
Organisationen
Wilhelm Tux
FSF Europe
Events
LinuxDay Dornbirn
BBA Schweiz
CoSin in Bremgarten AG
VCFe in München
Menschen
maol
Flupp
Ventilator
dawn
gumbo
krümelmonster
XTaran
maradong
tuxedo

 
Haiku, der OSS-BeOS-Klon macht Fortschritte
Veröffentlicht durch maradong am Montag 20. Februar 2006, 09:05
Aus der Haiku-für-alle Abteilung
Be Haiku, der Open Source Klon von BeOS, macht laut einem Artikel bei OSZine in letzter Zeit gewaltige Fortschritte. Interessant dürfte für diejenigen die Haiku mögen, auch ein Artikel zum Thema Haiku: Where are we at und vielleicht auch BeOS, the forgotten child sein. Ersterer der beiden hat auch etliche Screenshots zur Veranschaulichung eingebaut.

Krugle: Codesuchmaschine für Programmierer | Druckausgabe | Neue Oberfläche und viele Bugfixes für Minimo  >

 

 
symlink.ch Login
Login:

Passwort:

extrahierte Links
  • Open Source Initiative
  • OSZine
  • Was ist ein Wiki?
  • Wikipedia
  • Haiku
  • BeOS
  • Artikel
  • OSZine
  • Haiku: Where are we at
  • BeOS, the forgotten child
  • Mehr zu Be
  • Auch von maradong
  • Diese Diskussion wurde archiviert. Es können keine neuen Kommentare abgegeben werden.
    tools (Score:2)
    Von dkg (mail at danielkgebhart.net) am Monday 20. February 2006, 10:06 MEW (#1)
    (User #1410 Info) http://danielkgebhart.net/
    mal hoffen, dass sich da eine gute community auftut, die viele, schöne tools schreiben. beos habe ich früher ein paar mal versucht und war immer wieder von dessen geschwindgkeit sehr begeistert.
    Re: tools (Score:1)
    Von gravedigga (lukas(dot)bischof(at)gmail(punkt)com) am Monday 20. February 2006, 13:28 MEW (#2)
    (User #1779 Info)
    stimmt, die geschwindigkeit war spitze, allerdings hat es leider an software gefehlt...
    Warum? (Score:1)
    Von Doener am Monday 20. February 2006, 15:14 MEW (#3)
    (User #2169 Info) http://fuckup.twoday.net/
    Warum versucht man Kompatibiltät zu einem Betriebssystem zu erreichen, dass daran krankte zu wenig kompatible Software zu haben? Ich meine nichts gegen die Macher, ich finde so etwas großrtig, wenn sie ihre Arbeit unter freie Lizenzen stellen, um so mehr. Aber was motiviert diese Leute? Was war an BeOS so besonders?
    Re: Warum? (Score:1)
    Von paulb (PaulB_NoSpam@freesurf.ch) am Monday 20. February 2006, 22:28 MEW (#4)
    (User #524 Info)
    Was war, und ist an BeOS besonders ?

    Na dann zeig mir mal auf einem ottonormalo PC wie Du zur selben zeit den bouncing ball hüpfen lässt, ein TV programm schaust, eine internet radio station hörst, irgend was complierst ... und jetzt das TV fenster aufziehst und bewegst _ohne_ ruckeln im TV screen, aussetzer im radio und der ball hüpt fröhlich weiter ...

    Das hat mich beeindruckt ...

    paulb
    Re: Warum? (Score:0)
    Von Anonymer Feigling am Tuesday 21. February 2006, 09:42 MEW (#5)
    Mit an Sicherheit grenzender Wahrscheinlich nutzt(e) das TV ein Overlay, d.h. arbeitet voellig autonom von der CPU. Internet-Radio braucht sehr wenig CPU. Selbst mit MP3 kommt da ein Pentium 133 nicht in Verlegenheit. Und Kompilieren tut die Zielgruppe doch sowieso nicht, oder?

    Ich habe BeOS nie genutzt, aber das einzige an was ich mich erinnere sind ein paar Features der Oberflaeche (ich glaube Fenster lassen sich beliebig rotieren) und die gute Multimedia-Performanz (mehrere Videos gleichzeitig abspielen). Wenn das wirklich alles ist, dann ist das eher duerftig. Es sind im Wesentlichen wohl auch nur Scheduler-Tricks die sicherlich anderswo nachteilig wirken koennen.

    AFAIK ist BeOS nicht multi-user-tauglich und das ist heutzutage dann schon ein recht heftiges Manko. Microsoft hat 20 Jahre gebraucht um Unix zu begreifen und fertig sind sie immer noch nicht. Dass das bei BeOS oder einem Nachfolger schneller gehen sollte, ist zu bezweifeln.
    Re: Warum? (Score:2)
    Von XTaran (symlink /at/ deux chevaux /dot/ org) am Tuesday 21. February 2006, 18:22 MEW (#6)
    (User #129 Info) http://abe.home.pages.de/
    BeOS ist auch für Desktop-Systeme gedacht und nicht für Server. Warum also Multi-User implementieren, wenn's bei der Zielgruppe nur Nachteile bringt?

    Microsoft mußte Unix begreifen, weil sie in den Server-Markt drängten. Nicht wegen des Desktops.

    --
    There is no place like $HOME
    Re: Warum? (Score:0)
    Von Anonymer Feigling am Wednesday 22. February 2006, 10:11 MEW (#7)
    Wenn BeOS-User nicht ins Internet wollen, dann tuts auch ein Single-User-System. Du brauchst nicht unbedingt Multi-User, aber dann zeig mir ein anderes taugliches Sicherheitskonzept. Eine klare Grenze zwischen Desktop und Server gibt es doch heutzutage sowieso kaum, zumindest ist diese sehr fliessend. Eventuell will ja auch der eine oder andere BeOS-User sich von unterwegs zuhause einloggen oder ganz einfach P2P-Filesharing nutzen.
    In dem Moment hast du zwar effektiv einen Server, aber es ist immer noch ein Desktop.

    Ein Spezial-OS fuer Offline-Systeme lohnt sich aber sicherlich nicht. Da nimmt man besser einen Unix-Kernel und entwickelt dafuer eine supertolle Oberflaeche. Moment... Mac OS X gibt es ja schon.
    Re: Warum? (Score:2)
    Von dino (neil@franklin.ch.remove) am Thursday 23. February 2006, 10:13 MEW (#8)
    (User #32 Info) http://neil.franklin.ch/
    Kompilieren tut die Zielgruppe doch sowieso nicht

    Ersetze kompilieren durch irgendeine andere dir genehme Aufgabe die einfach alle Hintergrund CPU Zyklen aufbraucht, z.B. grosser Druckjob, Simulation in Tabellenkalkulation, Filmchen Rendern... Ansonsten war die BeOS Zielgruppe der generische Desktop User, da hat es einige CPU Fresser darunter.

    Ich habe BeOS nie genutzt

    Keine praktische Erfahrung, aber eine feste Meinung reicht auch ...

    die gute Multimedia-Performanz (mehrere Videos gleichzeitig abspielen)

    Was sehr schwierig bis unmoeglich ist unter Unixoiden Systeme. Und erst recht damals vor mehreren Jahren, auf sub-GHz Rechnern.

    Es sind im Wesentlichen wohl auch nur Scheduler-Tricks die sicherlich anderswo nachteilig wirken koennen

    Nein. Es waren vor allen Architektur Unterschiede, z.B. dass Videoausgabe nicht durch einen CPU fressenden Bruch wie X hindurch musste. Das kann man egal wie geschedulet nicht auf Speed raufbringen.

    AFAIK ist BeOS nicht multi-user-tauglich und das ist heutzutage dann schon ein recht heftiges Manko

    Ich wuerd mal drauf tippen, dass ueber 90% aller User noch nie ihren PC Multiuser betrieben haben. Wenn man remote-Zugriff (2. Login, aber ueblicherweise der selbige User) abzieht, dann ist das wohl sogar einiges ueber 95%. Duerfte also erst beim Server bauen ein Problem sein.

    Microsoft hat 20 Jahre gebraucht um Unix zu begreifen

    MS und Apple haben 20 Jahre gebraucht um vom Unix Hype vergiftet zu werden, und dann erst noch die ineffiziente Microkernel Ausgabe davon. Apple hatte sogar die Entscheidung Be oder NeXT aufzukaufen, und der Be Besitzer (uebrigens ex Apple Manager) hat bei den Preisverhandlungen zu hoch gepokert, leider.

    Ich bin jedenfalls froh, dass jemand dabei ist eine Alternative zu Unix anzubieten.

    P.S. Ich hab frueher auch den Hype geglaubt, und hab damals einen NeXT (= Mac OS X 2.x und 3.x :-)) gehabt.

    Dass das bei BeOS oder einem Nachfolger schneller gehen sollte, ist zu bezweifeln.

    Die Firma Be ist ja auch daran untergegangen.

    Heute reden wir von einem BeOS kompatiblem Open Source Clone. Und solche muessen ja keinen Profit zeigen und koennen sich damit lange Zeiten erlauben. Ohne das waeren Linux oder *BSD auch nie angekommen.

    Linux ertrage ich weil es Open Source ist, nicht weil es Unix ist. Vielleicht ist Haiku genau das was ich suche. Werd mir das Teil mal ansehen muessen. Das Original hab ich ausgelassen, weil ich an 100% Open Source glaube, und nicht an Bezahlsoftware.
    --
    GPL ist neo-amerikanische Freiheit: du bist gezwungen frei - von jeder Moeglicheit die sie schaedlich erachten

    Re: Warum? (Score:0)
    Von Anonymer Feigling am Thursday 23. February 2006, 20:00 MEW (#9)
    BeOS hat Multi-Tasking nicht erfunden. Das flutschte spaetestens seit OS/2 auf dem Desktop. Und ja ich kann schon lange nebenbei kompilieren und Videos gucken. nice ist dein Freund. Es mag da durchaus Unterschiede bei Treibern und Schedulern verschiedener Systeme geben, aber nichts dramatisches. Wie Unix die Multimedia-Performanz drueckt verstehst wohl nur du allein. Es gibt Echtzeit-Unix-Systeme, falls es dir entgangen sein sollte.

    Warum schreibe ich wohl "habe ich nie genutzt"??! Dein polemisches "aber eine feste Meinung haben" kannst du dir sonstwo hinschmieren. Ja, eine Meinung habe ich sehr wohl. Sonst haette ich nichts zum Schreiben gehabt. Ich habe meinen Eindruck beschrieben. Ist das so schwer fuer dich zu raffen?
    Ob und wie fest meine Meinung ist, hast du nicht zu entscheiden.

    "CPU-fressendes X"? Ich lach mich weg. Du hast wirklich keinen Schimmer von X11. Der Vergleich war sowieso damals Windows. Linux war erst im Kommen, noch nicht Mainstream. H264 und Konsorten flutschen hier unter X11 uebrigens besser als auf so manchem Windows und das mit weniger CPU als dort. Also erzaehl du mir nicht irgendetwas ueber Video-Performanz. Nein ich habe keine Heizung als PC. MPEG-1 Videos liefen schon auf meinem 486er fluessig durch XVideo. Mal ganz davon abgesehen, was will mich mit mehreren Videostreams gleichzeitig? Fuer Otto-Normal ist das voellig uninteressant.

    Zum Thema Multiuser: Ja bitte, dann mach doch weiter alles als "Admin" wie unter Winschrott 95. Danke fuer den ganzen Spam auch, liebe Dumpfbacken.
    Schade, dass die Spammer eure Maschinen selbst gebrauchen koennen, sonst wuerden Viren wohl wenigstens eure Daten vernichten. Auch geil, wenn sich deine Alte oder deine Blagen nen Virus einfangen und dann deine Daten weg sind. Von produktiver Nutzung fang ich erst gar nicht an. Wahrscheinlich findest du es wirklich cool fuer jeden Zweck ein anderes OS zu nutzen.

    Wenigstens gibst du zu, dass du Unix-Hasser bist. Leute wie du duerften eigentlich nur Zugriff auf Spezialgeraete haben, die genau einem Zweck dienen. Multi-Purpose-Geraete wie PCs (ja und auch Macs) sollten fuer euch Merkbefreite verboten sein.

    Tja, wenn irgendetwas an BeOS wirklich brauchbar gewesen waere, haetten Apple und MS es wohl "geklaut". Scheint mir nicht der Fall gewesen zu sein.

    Wir reden aber nicht von vor 10 Jahren, sondern heute. DVDs, MPEG-4, MP3, AAC etc. pp laeuft doch unter Linux, BSD, selbst Windows einwandfrei. Wie gesagt, zwei DVDs gleichzeitig ansehen tun ich mir nicht, waere aber auch kein Problem. Also welche Vorteile soll denn BeOS oder Haiku dann sonst haben? Du bist ja offensichtlich nicht in der Lage welche zu nennen. Da muss ich wohl bei meiner festen Meinung bleiben. Schade.

    Re: Warum? (Score:2)
    Von dino (neil@franklin.ch.remove) am Thursday 23. February 2006, 22:34 MEW (#10)
    (User #32 Info) http://neil.franklin.ch/
    BeOS hat Multi-Tasking nicht erfunden

    Kannst du aufzeigen, wo ich das angeblich behauptet haben soll? Oder tust du einfach mir gefaelschte Aussagen unterjubeln versuchen, in der Hoffnung ich uebersehe sie? Oder hast du nur sehr unaufmerksam gelesen?

    Und dass Multitasking und Multiuser spaetestens anfangs 1960er von den CTSS Leuten auf ihrer PDP-1 erfunden wurde weiss ich. Schliesslich hab ich selber Multiuser schon 1985 auf einer Pr1me 750 kennengelernt (ein 6 Doppelmonitor Arbeitplaetze CAD System). Und kapiert das es gegenueber einem Singleuser Z80/4Mhz PC in einigen Hinsichten unterlegen ist.

    Unterschiede bei Treibern und Schedulern verschiedener Systeme geben, aber nichts dramatisches

    Wegen eben diesem "nichts dramatisches" braucht Mac OS X ja auch einen G5 damit es vergleichbar mit einem Linux auf PIII laeuft. Oder G4 um mit besseren PI mitzuhalten. Schau mal im Netz unter Microkernel nach fuer den Grund.

    Wie Unix die Multimedia-Performanz drueckt verstehst wohl nur du allein

    Schau mal in Netz unter "display server round trip time" nach. Das ist der Zeit (und CPU) Verbrauch der durch 2 mal IPC und Prozesswechsel verbraten wird, und das bei jedem einzelnen Zeichenbefehl. Und das ist standard Informatiker Wissen.

    Und ja, das ist genau die selbige Begruendung fuer die beruehmten mitte 1995er Torwalds gegen Tannenbaum Flamewar ueber Microkernel. X hat genau den selbigen Designfehler wie Microkernel, nur noch ineffizienter (weil Unix Named Pipes ineffizienter sind als absichtlich fuer RPC Gebrauch optimierte Microkernel IPC Verfahren).

    "CPU-fressendes X"? Ich lach mich weg. Du hast wirklich keinen Schimmer von X11

    Du scheinst vom IPC Problem keine Ahnung zu haben, also koennen deine X Kenntnisse nicht gerade berauschend sein. Anderseits kenne ich persoenlich (= in RL zu ihm nach Hause eingeladen worden) einen bei Redhat arbeitenden Linux Networking Kernelhacker, der wenn man X erwaehnt sehr defensiv wird, in der Art "Das Teil ist nicht representativ fuer Unix Performance". Leider ist es representativ fuer Unix Videoausgabe Performance.

    Der Vergleich war sowieso damals Windows

    Ein "Wir sind besser als Scheisse" Argument (das war damals Windows/DOS, nicht Windows/NT das halbwegs respektabel ist). Ein Einaeugiger der nur Schwarzweiss sieht mag besser sein als ein Blinder. Aber das Beste ist das noch lange nicht. Such dir eine bessere Messlatte.

    Mal ganz davon abgesehen, was will mich mit mehreren Videostreams gleichzeitig?

    Reserven haben? Neben Hauptprogram noch nebenbei die Videokamera ueberwachen? Multiperson Videokonferenz? Kleinere oder untertacktete CPU benutzen fuer luefterloses Wohnzimmer Geraet? Notebook Batterie laenger leben lassen? Weniger Storm verbruzzeln ist immer gut.

    Danke fuer den ganzen Spam auch, liebe Dumpfbacken. Schade, dass die Spammer eure Maschinen selbst gebrauchen koennen

    Du scheinst auch den Unterschied zwischen Multiuser (= Usernamen/ID/Zugriffsrechte) und verhindern von Sicherheitsloechern nicht zu kennen.

    Linux Viren sind auch moeglich. Der erste Linux Wurm gab es bereit vor ein paar Jahren, griff den Apachen an. Mac OS X ist jetzt gerade genug bedeutend dass es den ersten Virus gibt. Linux ist auch nur eine Zeitfrage. Brauchen tut man nur einen Buffer Overflow in einem beliebigen Netzwerk benutzenden Program. Und dank Schrott wie C (das sich nur durch Unix so verbreitet hat) hat Linux genug solcher Loecher.

    Man kann auch dichtere Singleuser Systeme machen als Windows/DOS (selbst nur ein C-loses Windows/DOS!), genauso wie es bessere multiuser Systeme gibt als Windows/NT.

    Wenigstens gibst du zu, dass du Unix-Hasser

    Wohl weil ich dazu stehe. Weil ich besseres erlebt habe. Und weiss dass noch besseres moeglich ist. Waehrend du scheints nur ganz uebel (Windows/DOS) etwas weniger uebel (Windows/NT) und nicht ganz so uebel (Unix) kennst.

    P.S. Ich benutze Linux, und habe kein Windows. Es ist das geringere Uebel, aber gut ist es nicht.

    Multi-Purpose-Geraete wie PCs (ja und auch Macs) sollten fuer euch Merkbefreite verboten sein

    Stell dir vor, ich ziehe Multifunktionsgeraete vor. Genauso wie ich Open Source vorziehe. Weil flexibler, und weniger limitierend.

    Aber ich hab gerne welche die gut funktionieren. Und sauber und ohne Murks aufgebaut sind. Und ohne einem langsamen Zwangs-Handlanger (X Server) zwischen mir und dem Videospeicher.

    Tja, wenn irgendetwas an BeOS wirklich brauchbar gewesen waere, haetten Apple und MS es wohl "geklaut"

    Apple hatte nach dem Copland (gescheiterter vorgesehner Mac OS 8 Nachfolger) Desaster keine Zeit zum nochmals etwas entwickeln. Da blieb nur Notnagel Mac OS 9 und sofort einen Nachfolger einkaufen. Und die Auswahl was BeOS oder NeXTstep. Ersteres war ihnen zu teuer.

    MS hatte eh schon NT 3.5 (ebenfalls eingekauft, ist vom VMS Chefdesigner) draussen bevor BeOS ueberhaupt bekannt wurde.

    DVDs, MPEG-4, MP3, AAC etc. pp laeuft doch unter Linux, BSD, selbst Windows einwandfrei

    Alte Fliegerwahrheit: Mit genug Motorleistung kriegt man alles in die Luft, auch eine Scheunentuere (und ja ich kenn jemand der es gemacht hat!). Mit genug CPU kriegt man auch Muellsoftware zum performen. Einfach GHz rein, egal ob Athlon/P4/Opteron/G5.

    Warum tun selbst simple 5 Jahre alte .avi ruckeln und Frames droppen auf Linux auf einem 350Mhz Prozi? Und ja, es gibt auch heute 200..400MHz embedded Prozessoren, und auf 500..800MHz runtergetacktete luefterlose VIA chips.

    Also welche Vorteile soll denn BeOS oder Haiku dann sonst haben? Du bist ja offensichtlich nicht in der Lage welche zu nennen. Da muss ich wohl bei meiner festen Meinung bleiben.

    Steht einiges in diesem Kommentar: Vor allem X Performance verschleiss dank IPC.
    --
    GPL ist neo-amerikanische Freiheit: du bist gezwungen frei - von jeder Moeglicheit die sie schaedlich erachten

    Re: Warum? (Score:0)
    Von Anonymer Feigling am Friday 24. February 2006, 00:59 MEW (#11)
    Meinst du nicht, dass du mit deiner X11-Kritik mindestens 10 Jahre zu spaet dran bist? H264 braucht einiges an CPU. Das hat aber so ziemlich mit 0,nix mit X11 zu tun. Das mit "CPU-Power"-Pseudo-Argument bringt doch nix. Mein C128 startet eh nicht mehr und der 486er hat nur 32 MB RAM. Zum Kompilieren ist der eh saulahm. Oder liegt das auch nur am IPC? Kompiliert man mit Haiku schneller?
    C ist Schrott? Das ich nicht lache. Nur weil jedes Kokshirn meint es koenne C programmieren, ist C Schrott? *ROTFLMAO* Autos sind auch Schrott. Staendig werden damit Leute totgefahren. Flugzeuge! Wir brauchen Flugzeuge fuer jedermann! Die sind naemlich viel sicherer.

    Du kennst auch so einige Unterschiede nicht. Wenn du meinst ohne Buffer-Overflows sei die Welt sicher, danne lade ich dich ein etwas Java oder PHP zu rauchen. Da siehst du dann mal was die Kokshirne auch Pointer verbrechen. Die Sicherheit ist ein Zusatzeffekt eines Multi-User-Systems und verhindert, dass deine geliebten Kokshirne beliebig grossen Schaden anrichten koennen.

    "BeOS is written in C and C++." Das ist ja ein Supervorteil gegenueber einem Unix-Kernel der in C geschrieben ist. Vor allem ist C++ ja so supergeil. Hunderte Seiten Standardgesuelze, keiner implementierts, nichts ist kompatibel und ein standardisiertes ABI gibt es auch nach 20 Jahren noch nicht. Wenn hier etwas ganz gewaltig stinkt, dann ist das nicht C, sondern C++. Waere BeOS in Eiffel geschrieben, OK, das waere mal was. Aber C++? *kotz* *lach* *kotz*

    Und ja, Linus war eine dumme, faule Socke. Kein Mensch braucht Linux. BSD war vor Linux da und ist immer noch auf Augenhoehe. Aber Linux rul0rt eben kleine Kinners und deshalb geht da die ganze Manpower hin. Pech, dafuer ist es auch ein riesen Haufen Krimskrams und wird geregelt von einem Haufen grossmaeuliger Choreliker (nein nicht mir).
    Das einzige was an BSD stinkt ist, dass es eben nicht auf einem Micro-Kernel basiert und nein Mac OS X hat damit rein gar nichts zu tun. FreeBSD auf nen MACH draufklatschen ist sicher nicht die Idee.

    Wenn Linux scheisse auf nem Mac laeuft, dann hau da eben ein BSD drauf z.B. NetBSD. Dass Linux auf anderen Systemen als x86 nur pseudomaessig laeuft ist bekannt. Kein Wunder, Linux ist fuer x86 entwickelt und die meisten User als auch Entwickler haben und kennen nichts anderes. Mehr als make && boot && echo supported passiert bei Linux nicht.

    BeOS hat sicher mehr Loecher als ich Poren, das interessiert nur niemanden, weil es nur 20 Menschen weltweit nutzen.

    Gut das ich kein Informatiker bin, sonst wuesste ich wohl nicht was Display-Lists in OpenGL sind und wuerde auch so einen Schrott von wegen RTT faseln. Wahrscheinlich wuerde ich sogar behaupten, RTT fresse CPU-Zeit. Du kannst X11 solange lahmreden wie du willst. Das aendert nichts daran, dass es schnell genug ist fuer alles was man damit machen kann und will. Ob dein Kernelhacker ueberhaupt Ahnung von X oder Grafik im Allgemeinen hat, kann ich sowieso nicht wissen. Es kann einem Enduser doch auch voellig scheissegal sein. Ich vermisse nichts und habe auch kein Performanzproblem. Ich erinnere mich noch gut dass Netscape 4.8 deutlich schneller und stabiler unter BSD lief im Gegensatz zu der Windowsversion. Und MP3s abspielen brauchte auch weniger Leistung, Coolplayer war unter Windows sowieso der einzige Player der schnell genug war. Von daher kann mal wohl kaum behaupten, dass Unix weniger effizient oder performant ist. Aber Informatiker der Unix hasst, ist wahrscheinlich eh bloss Mediengestalter oder hat gerade mal nen Bachelor.

    Aber die Schwanzvergleiche sind eh sinnlos, solange man nicht 1:1 auf derselben Hardware vergleicht. Ich bin naemlich ueberzeugt, dass BeOS ganz einfach ein paar hochoptimierte Treiber und Codecs hat(te).
    Dass du unter Nicht-Windows deine Hardware besonders die Grafik nicht (voll, oft kaum) ausnutzen kannst liegt ja nunmal einfach an den Herstellern. Vor 10 Jahren sah das noch anders aus, seit alles auf 3D-Hardware basiert, sind die Specs
    mehr oder weniger geheim und man kann nur die Basisfunktionen nutzen.

    Unix ist schon deshalb besser als BeOS, weil es ein Multi-User-System ist. Ist BeOS Scheisse? Wenn nicht, dann kannste dein "besser als Scheisse" abhaken. Vor allem ist ein Unix fuer fast alles geeignet. Reine Enduser-Systeme wie Win 3.11 und 9x
    sind tot. Die kann man hoechstens auf den DVD-Player oder das Handy klatschen, aber selbst da ist Unix mit bunter GUI sinnvoller.

    Dein Z80 war nicht effizienter wegen Singleuser, sondern wegen Single-Tasking. Der Overhead durch Multi-Tasking ist aber heute wesentlich geringer und BeOS hat jawohl auch nen Scheduler wahrscheinlich sogar einen fuer Echtzeit brauchbar ist.

    Uebrigens ist Virtualisierung bald ein Standardfeature sowie es heutzutage Multi-Tasking ist. Das bringt uebrigens noch mehr Sicherheit. Aber das interessiert dich wahrscheinlich beides nicht, weil das CPU-Zeit verschwendet. Und ein Wurm der einen Indianer angreift ist fuer den Rest des Systems reichlich ungefaehrlich. Einfach den Indianer updaten, sein jail aufraeumen und weitergehts. Dein BeOS waer da erstmal komplett im Eimer.
    Re: Warum? (Score:2)
    Von dino (neil@franklin.ch.remove) am Friday 24. February 2006, 11:41 MEW (#12)
    (User #32 Info) http://neil.franklin.ch/
    dass du mit deiner X11-Kritik mindestens 10 Jahre zu spaet dran bist

    Leider ist X auch heute immer noch mies an der selbigen Krankheit. Also bleibt die Kritik aktuell.

    H264 braucht einiges an CPU. Das hat aber so ziemlich mit 0,nix mit X11 zu tun

    Was trotzdem nichts daran aendert dass X immer noch Scheisse ist, nur weil ein weiterer CPU Fresser danaben steht.

    Das mit "CPU-Power"-Pseudo-Argument

    Sag das dem Notebook Akku. Oder dem Ventilator. Die kuemmern sich nur um Physik, und nicht um deine Propaganda Wertungen.

    C ist Schrott? Das ich nicht lache ... Autos sind auch Schrott. Staendig werden damit Leute totgefahren

    Du scheints den Unterschied zwischen mit einmaliger Aktion (Sprachdesign) sehr leicht vermeidbaren und nur mit massiven wiederholtem Aufwand (jeder Fahrer an jeder Fahrt) etwas reduzierbaren Unfaellen nicht zu verstehen. Nur weil letzteres ein Problem ist muss man nicht auf ersteres verzichten.

    P.S. In Autos hat man auch Sicherheitsgurte, fuer einen Teil der Unfallfolgen zu vermeiden. C Fans scheinen zu der Sorte Idioten zu gehoeren die Sicherheitsgurte fuer ueberfluessig halten, oder Helm auf dem Motorrad, oder Leitplanken.

    Dass man nebenbei bei echten "dichten" Strings auch noch Programmiererzeit (all die expliziten Test die nicht vergessen wurden) und CPU Zeit (all die Sucherei nach '\0' gegenueber einfach Pointer auf Ende auslesen) spart kommt noch als "Gratisgeschenk" dazu.

    Wenn du meinst ohne Buffer-Overflows sei die Welt sicher, danne lade ich dich ein etwas Java oder PHP zu rauchen

    Bugtraq hat mal vor ein paar Jahren festgestellt, dass ueber 50% aller auf ihrer Liste veroeffentlichen Bugs sich um Buffer Overflows drehten. Danke fuer die vielen Millionen verschwendeter Stunden Arbeitszeit "dank" Sploits aufraeumen oder vorbeugender Upgrades machen.

    Dass es heute dazu noch system()&Co basierte Bugs gibt aendert daran nix. Du scheinst ueberhaupt ein grosser Freund von "Es gibt andere Scheisse also warum darf nicht alles Scheisse sein" Argumenten zu sein.

    BeOS is written in C and C++. .. Vor allem ist C++ ja so supergeil

    Wo soll ich gesagt haben, dass ich C++ gut finde? Es ist C, also implizit Muell. Und es sagt etwas ueber den Unixoiden Schaden aus, dass selbst die BeOS Schreiber sich nicht von dieser Seuche ganz entsagen konnten.

    Kein Mensch braucht Linux. BSD war vor Linux da und ist immer noch ...

    Ah, ein verbitterter BSD Freak, der es nicht mag, dass die seinem System zustehende Ehre von einem Neuling genommen wurde. Das erklaert die Menge Galle.

    Wenn Linux scheisse auf nem Mac laeuft, dann hau da eben ein BSD drauf

    Wo soll ich gesagt haben, dass mich Mac Hardware interessiert? Ich hab hier ganz normalen IBM PC Schrottdesign kompatible x86 Hardware.

    Bitte halte dich beim Argumentieren an das was der Gegenueber sagt, sonst haben deine resultierenden Strohmannargumente keinerlei Wirkung, weil sie ins Leere schiessen. Und Strohmaenner Paraden abschiessen ist ausserdem saulangweilig, dein Gegenueber hat irgendwann genug und geht, und du hast verloren.

    wuesste ich wohl nicht was Display-Lists in OpenGL sind

    Leider weisst du wohl nicht, dass OpenGL nur bei 3D zum Zug kommt,und daher bei 2D Zeichnen oder Videos abspielen irrelevant ist.

    X11 solange lahmreden

    Wieso etwas lahmreden wenn etwas schon demonstrativ lahm ist, und man nur das dokumentieren muss?

    Es kann einem Enduser doch auch voellig scheissegal sein

    Ach. Unnoetig leerer Notebook Akku kann ihm ja sooo egal sein. Unnoetig laermender Ventilator im Wohnzimmer ist ja auch sooo egal.

    deutlich schneller und stabiler ... zu der Windowsversion ... unter Windows ...

    Und schon wieder der Vergleich mit etwas noch schlechterem. Und das trotzdem dass ich im letzten Kommentar schon mich von Windows distanziert hab (und du damit wieder ins Leere schiesst). Mangelhafte Sorgfalt beim Argumentieren. Und scheints auch vergleichbare beim Systeme beurteilen.

    Aber Informatiker der Unix hasst, ist wahrscheinlich eh bloss Mediengestalter oder hat gerade mal nen Bachelor

    Und nochmals gleich ein "mangelhaft". Das mal dafuer, aus der Aussage "Das ist standard Informatikerwissen" den Fehlschluss gemacht zu haben dass ich Informatiker sei. Und dann erst noch gleich eine Spekulation ueber Mediengestalter anzuhaengen. Und das obwohl erst noch oben eine Homepage URL steht, wo man nachschauen koennte.

    Real bin ich Elekroingenieur (inkl Erfahrung im Chipdesign) und arbeite heute als Programmierer, nach einer kurzen Phase als Sysadmin. Und dank dem Ingenieursverhalten anstaendiges Design zu verlangen, und nicht einfach beliebige "anderes ist schlimmer" Hacks zu nehmen, bleiben die meisten Autos stabil auf der Strasse, die meisten Flieger sicher in der Luft und die meisten AKWs am Boden. Eigentlich fast alle, wenn man Fahrer, Piloten und Operateure ihre Fehler weglaesst.

    Schwanzvergleiche sind eh sinnlos, solange man nicht 1:1 auf derselben Hardware vergleicht

    Stell dir vor, was all die "Der Rechner laeuft jetzt schneller" Leute wohl gemacht haben? Auf der selbigen Hardware getestet.

    Dass du unter Nicht-Windows deine Hardware besonders die Grafik nicht (voll, oft kaum) ausnutzen kannst ...

    Ich hab schon gesagt, dass mich Windows vs Linux Vergleiche nicht interessieren. Wir diskutieren hier Unix vs besseres. Windows ist da eh schon disqualifiziert weil miserables Design.

    Dein Z80 war nicht effizienter wegen Singleuser, sondern wegen Single-Tasking

    Schoen dass du ohne weitere Details als Prozessortyp und Singleuser zu kennen einfach eine Multiprozessor (wenn auch nur assymetrisches) Kiste zum Singletask System abqualifizierst. Zwischen Fakten und Spekulationen unterscheiden hast du wohl wirklich ein Problem.

    Virtualisierung bald ein Standardfeature sowie es heutzutage Multi-Tasking ist

    Jegliches Mutkitasking ist zumindest teilweise Virtualisierung, selbst blosses Multithreading virtualisiert die CPU, Tasks auch den Speicher und abstrahiertes IO. Reale Virtualisierung ist einfach wenn auch die IO Register virtuell sind.

    Und auch das ist Uralt, gibt es seit CP/67 auf der IBM 360/67 anfangs 1970er. Fuer Server etwas das auch im PC Bereich ueberfaellig ist, damit man 1000e stromfressende 0.1% CPU-Last Physical Hostings (1HE oder Blade Kisten) auf eine 2-SMP Kiste konsolidieren kann.

    Und ein Wurm der einen Indianer angreift ist fuer den Rest des Systems reichlich ungefaehrlich

    So ungefaehrlich wie es SQL Slammer war :-). Und fuer ein DDoS Zombie oder Spambot Netz aufbauen ausreichend. Von ebenso moeglichen Angriffen auf Firefox oder Thunderbird oder Openoffice, sobald sie genug verbreitet sind zum interessant sein, ganz zu schwiegen.
    --
    GPL ist neo-amerikanische Freiheit: du bist gezwungen frei - von jeder Moeglicheit die sie schaedlich erachten

    Re: Warum? (Score:0)
    Von Anonymer Feigling am Friday 24. February 2006, 18:03 MEW (#13)
    Niemand braucht rohe C-Strings verwenden, abgesehen von einigen Interfaces, wo sie kein (Sicherheits-)Problem darstellen. Ein Layer ueber C-Strings zu ziehen, der das Handling effizienter und sicherer macht, ist vergleichsweise trivial. Die Suche nach der NUL ist fast nie nennenswerter Overhead, da die mehrheits der Strings sehr kurz ist. Da wo der Overhead eine Rolle spielt, nutzt man eben ein anderes Interface. Es behauptet ja auch niemand Listen sind Scheisse, weil Hashtables schneller sind. Du kannst C-String sowieso mit Pascal-Strings kombinieren. Du kannst aber auch deine Strings aber auch auf beliebig andere komplexe Weise darstellen. Kein Mensch braucht strcpy() und Konsorten benutzen. C schenkt dir eben nichts, laesst dir aber sehr viel Freiheit.
    Der Vorteil bei C ist immer, dass es
    sehr wenig Annahmen macht und dadurch sehr portabel ist. Es erfordert natuerlich mehr Koennen als Java um portabel zu sein. Dafuer laeuft der Code dann aber auch auf dutzenden von Architekturen und Betriebssystemen und nicht bloss auf 3-4. Nur weil C immer wieder missbraucht und von Stuempern genutzt wird, macht es die Sprache nicht schlecht.
    Selbst an Unis sind C-Kurse oft von zweifelhafter Qualitaet. Der Fehler liegt wohl eher beim Versagen der "einfacheren" oder "maechtigeren" Alternativen.
    Ist JIT oder Emulation denn etwa besser? Java wurde erst nach Jahren "interessant" als die Maschinen endlich schnell genug waren. Wahrscheinlich sagst du jetzt wieder "hab ich behauptet Java sei toll?".
    Du deklarierst ja alles als Scheisse ohne eine Alternative zu nennen.

    Dass dein Notebook-Akku sich schnell leert, kann auch an mangelhafter Unterstuetzung des Power-Managements liegen. Dank der Verschwiegenheit der Hersteller sieht es da unter BSD recht mau aus. Linux ist da etwas besser. Letztlich sind Notebooks aber heutzutage voellig ueberladen. In jedem Notebook der letzten Jahre steckt mehr Power als in meinem Desktop. Wozu man den ganzen RAM und vor allem den hohen CPU-Takt sowie eine Turbo-3D-Karte braucht, ist mir schleierhaft. Ja, schon klar verglichen mit Desktop-Karten sind die eher lahm. Ein 17"-Display frisst sicher auch mehr Strom als ein 14"-Equivalent was fuer Notebook-Zwecke reichen wuerde. Fuer den Stromverbrauch wuerde ich deshalb eher die ueberzogene Hardware verantwortlich machen. Natuerlich tun ineffiziente GUI und Grafik-Spielereien ihr Uebriges, aber mir reicht nicht nur blackbox und ich finde es auch sehr ergonom nicht mir Krimskram vollgemuellt zu werden.

    OpenGL kann und wird in Zukunft wohl fuer 2D genutzt. 3D ist ja bloss eine "Obermenge" von 2D. Ich weiss nicht, welche tollen Tricks BeOS fuer Videos nutzt, aber XVideo funktioniert hier wunderbar und spart einiges an CPU fuer das Skalieren und die YUVRGB Wandlung. Sicherlich muss man Abstriche machen, da nicht beliebig direkt auf die Hardware zugegriffen werden kann. Das ist mir die Sicherheit aber Wert. Ich finds auch Schade, dass ich nicht wie unter DOS einfach im Speicher rumschreiben kann und so super-effizient
    Pixel auf den Bildschirm schmeissen kann. Was ich mit 10 Jahre zu spaet meinte, war dass der Overhead heutzutage meist vernachlaessigbar ist. Der Overhead ist doch auch nicht zum Spass da, sondern erfuellt eine Funktion.

    Du vergisst glaube ich auch, dass bei lokaler IPC memory-mapping als auch DMA genutzt werden. Das funktioniert auch transparent mit Sockets. BSDs haben da ueberlicherweise Zero-Copying, sprich Daten werden quasi direkt von der Festplatte ueber den Bus ueber die Netzwerkkarte geschickt, ohne den Umweg ueber RAM-Puffer, solange es die Hardware erlaubt. Bei Videos musst du sowieso erst mal dekodieren. Ich will X11 gar nicht schoen reden. Es wurde sicherlich zulange vernachlaessigt. Aber das Modell an sich hat sich bewaehrt. Wo wir beim Thema Stromfresser sind: Gerade in Firmen, Unis etc. ist es sehr sinnvoll Terminals (z.B. SunRays) anstatt vollwertiger PCs zu verwenden und da kann X11 seine Vorteile auch voll ausspielen. Das ist aber prinzipiell auch fuer zuhause interessant. Die meisten schaffen sich aber anscheinend lieber 2-3 PCs fuer die Familie an, selbst wenn 2 davon nur fuers Surfen und Briefe schreiben genutzt werden. Auch hier zeigt sich ein Vorteil des Multi-User-Systems.

    Ich habe nicht angefangen, von G4 und G5 zu sprechen. Wenn dir Mac-Hardware egal ist, erwaehne sie eben nicht. Mich stoert der x86-Inzest schon etwas. Wenn dir Stromverbrauch und Effizienz so wichtig ist, dann sollte es dich auch stoeren. Alpha, SH5, Itanium, ARM und Sparc sind alles interessante und meist wesentlich effizientere Architekturen. Gerade fuer PDAs und Notebooks oft ideal aber leider kaum nutzbar da populaere Betriebssysteme x86-zentrisch sind. Konkurrenz wuerde das Geschaeft beleben. Bei meinem OS kann mir die Architektur ziemlich egal sein, an der Oberflaeche macht es keinen Unterschied.

    Uebrigens braucht man gar keine Bugs fuer den Weltuntergang. Benutzer und Fischer beweisen immer wieder, dass die menschliche Intelligenz der groesste Designfehler ueberhaupt ist.

    Schwere Bugs im OS sind wohl Groessenordnungen geringer als solche in Applikationen. Was fuer Magie hat BeOS denn eingebaut um remote-exploits unmoeglich zu machen? Du missverstehst mich sowieso. Ich behaupte Unix-Systeme bieten vielfaeltige Konzepte um den Schaden der angerichtet werden kann zu verringern. Voellig ausschliessen kann man gefaehrlich Bugs wohl nicht.
    und perfekte Sicherheit ist unmoeglich.
    Das Multi-User-Konzept bringt aber eine Menge. Wenn
    viele Benutzer zu faul oder unerfahren sind, um es zu nutzen, dann ist das deren Problem und nicht das von Unix. Das ist aber ein sehr generelles Problem: eine andere Erscheinungsform ist das Nichtlesen von Anleitungen aller moeglichen Geraete. Dafuer sind sich viele zu fein. Ich glaube heutzutage sind es Benutzer auch nicht mehr gewohnt, den Umgang mit dem OS wirklich zu erlernen. Viele Systeme sind auf "learning by doing" getrimmt. Das mag bei Spezialgeraeten funktionieren, bei einem so "gefaehrlichen" Allzweck-Werkzeug wie einem PC ist diese Einstellung voellig fehl am Platz. Man braucht weiss Gott keinen PC-Fuehrerschein, aber ohne Grundlagen-Wissen nuetzen einem die besten Unix-Mechanismen nichts. Das gilt natuerlich genauso fuer andere Betriebssysteme, wobei bei gewissen Systemen einfach furchtbar ueble Voreinstellungen hinzukommen.

    Jedes System mit Timer-Interrupt ist Multi-Tasking faehig, eventuell dann eben ohne gegenseitigen Schutz der Tasks. Multi-Threading ist wohl der bessere Begriff zumindest ist es dann verstaendlicher. Du hast aber nicht erklaert worauf dein Mainframe vs. Z80 hinauslaufen sollte. Daher habe ich eben spekuliert. Nebelkerzen auffangen ist ein Hobby von mir.
    Re: Warum? (Score:2)
    Von dino (neil@franklin.ch.remove) am Saturday 25. February 2006, 00:35 MEW (#14)
    (User #32 Info) http://neil.franklin.ch/
    Ein Layer ueber C-Strings zu ziehen, der das Handling effizienter und sicherer macht, ist vergleichsweise trivial

    Achja, und jede Library hat dann ihren eigenes String Layer, 100e Male Standardfunktion reimplementiert. Und alle nicht zu einander kompatibel (also immer zweimalige Formatwandlung). Toll. Hoehere Programmiersprachen wuerden erfunden zum Programmierern Fleissarbeit abzunehmen, erst recht fehleranfaellige. C hat da wohl soeben versagt.

    C schenkt dir eben nichts, laesst dir aber sehr viel Freiheit

    Wie waer es damit, eine brauchbare und standardisierte Methode anbieten, und immer noch die Freiheit lassen, falls man die dann ueberhaupt noch braucht? Standard C99 mit nur brauchbaren Standardstrings (und zugehoerigen Standardlibrarys) addiert waer ganz ordenlich brauchbar, und wuerd immer noch alles andere koennen. Den "complex" Datentyp addieren war wichtig genug, aber "string" Datentyp addieren nicht, fuer die Typen bei ANSI.

    sehr wenig Annahmen macht und dadurch sehr portabel ist

    Und Strings richtig dicht implementieren wuerde die Portabilitaet genau wie verhindern?

    Ist JIT oder Emulation denn etwa besser?

    Aepfel (Sprachfeature) mit Birnen (Implementation) verglichen. Siehe auch den gcj Echt-Compiler fuer Java.

    Wahrscheinlich sagst du jetzt wieder "hab ich behauptet Java sei toll?".

    a) Richtig, werd ich genau sagen. b) Ich hab Java probiert, fuehlt sich an wie durch Sumpf waten. Iiiii. Da ist C weitaus ertraeglicher.

    Du deklarierst ja alles als Scheisse ohne eine Alternative zu nennen.

    Koennte das wohl dran liegen, dass "dank" Unix und C es keine Entwicklung moderner Alternativen mehr gegeben hat (Microsoft ist keine Alternative)? Heute werden fast nur OO Scriptsprachen erfunden, eine reine prozedurale Compilersprache ohne JIT gabs seit langem keine neue mehr.

    Ich verwende wie schon gesagt Linux (und schreibe dies auf einem), trotzdem das es schlecht ist, weil es leider sonst nur noch schlechteres zur Auswahl hat. Dito benutze ich auch C, weil es auch das geringere Uebel ist.

    Aber es bleibt trotzdem schlecht. Und verdient als solches kritisiert zu werden. Damit die Leute nicht vergessen, dass es einmal besseres gab. Und in Zukunft besseres geben koennte. Besserung beginnt damit, dass man erkennt dass das jetztige nicht ideal ist.

    Dass dein Notebook-Akku sich schnell leert, kann auch an mangelhafter Unterstuetzung des Power-Managements liegen

    Sorry, das ist jetzt aber sowas von lachhaft was du rauslaesst. Auch bestes Powermangement kann nur Leerzyklen einsparen. Wenn das Program unnoetig Rechenpower will, muss die CPU unnoetig arbeiten, und dabei unnoetig Strom verbrauchen. Das ist simple Physik. Und einen HALT opcode im Thread Sheduler wenn bis zum naechsten Interrupt nix mehr zu rechnen ansteht konnte schon jeder 1970er 8bit Rechner.

    Sicherlich muss man Abstriche machen, da nicht beliebig direkt auf die Hardware zugegriffen werden kann. Das ist mir die Sicherheit aber Wert

    Das ist bei mancher Hardware (CPU, Hauptspeicher, Disks) sinnvoll (Crashes, Datenverluste). Bei Videospeicher ist das relativ fragwuerdig. Da koennen maximal Pixel dabei draufgehen, und die sind erneut zeichenbar.

    Und zumindest fuer ganze Bildschirmbreite bandfoermige Fenster liesse sich sogar per MMU nur der erlaubte Speicherbereich freischalten, ein vmap() analog zu mmap(). 1988 gab es sogar eine Videokarte namens Tektite die fuer echte Fenster die Daten aus verschiedenen Speicherbereichen holen konnte, voll MMU freundlich.

    Der Overhead ist doch auch nicht zum Spass da, sondern erfuellt eine Funktion

    Fuer Video ist ein derartiger Overhead wie IPC also nicht rechtfertigbar. Selbst Files liest du ja auch nicht per NFS Verbindung von jedem Prozess zu einem Fileserver Prozess auf der selbigen CPU. Und dabei sind Disksektoren erheblich wertvoller, weil unersetzbarer Inhalt.

    dass bei lokaler IPC memory-mapping als auch DMA genutzt

    Natuerlich gehen dabei nur die Bulk Daten ueber DMA. Die Message geht immer noch ueber IPC. Und die Prozesswechsel hat man auch immer noch.

    SunRays ... X11 seine Vorteile auch voll ausspielen

    Mal abgesehen davon dass die SunRay eben nix von X versteht. Und auf dem Server beliebiges Graphiksystem laufen kann, solange es zuunterst SunRay Kommandos (nur simple Pixelsetzer, Blockfills, Bitmapfills und Blockmoves) generiert.

    Ach ja, ein erheblich kleineres und billigeres USB2VGA genanntes Geraetchen schaft SunRay-artige Mehrfach-Ausgabe direkt von beliebigem PC, sogar ohne Ethernet, und schneller. Linux 2.6 hat sogar Treiber dafuer. Ob es aber auch schafft mehrere USB Hub+Tastatur+Maus+USB2VGA+Floppy/CD/Digicam Stationen richtig auseinanderzuhalten und den Usern ihren Displays zuzuordnen ...

    schaffen sich aber anscheinend lieber 2-3 PCs fuer die Familie .. zeigt sich ein Vorteil des Multi-User-Systems

    Die Einzel PCs laufen dann ein paar Sunden am Tag oder gar nicht, waehrend ein Multi User Sytem dann 24h laufen wuerde. Und oft sind die mehreren PCs eh die ueber Jahren beschafften alten Systeme.

    Ich behaupte Unix-Systeme bieten vielfaeltige Konzepte um den Schaden der angerichtet werden kann zu verringern

    Spaetestens normaler Sploit Shellcode kann auch in Userprozessen fork() und exec() oder socket() machen. Fuer alle Userdaten killen (das wertvollste auf dem Rechner) oder DDoS/Spambot (das extern nervigste) reicht das. So dicht ist der Multiuser Schutz also nicht, gerade mal System Neuinstall hat es verhindert.

    Benutzer auch nicht mehr gewohnt, den Umgang mit dem OS wirklich zu erlernen

    Haben sie auch recht. Der Rechner wurde ja auch von ihnen beschafft zum ihnen Arbeit abnehmen, nicht um ihnen unverstehbare Arbeit aufzuhalsen.

    gewissen Systemen einfach furchtbar ueble Voreinstellungen hinzukommen

    Das ist ein Riesenproblem Userseitig. Da sind wir uns sogar einig. "Default alles zu" ist leider zu oft nicht die Herstellerpolicy. Unabhaengig von Unix oder anderes. Wobei die Unixen etwas weniger schlecht dastehen (oder zumindest vor 5..10 Jahren dastanden, sie sind inzwischen wieder Windows-kompatibel degeneriert :-( ).
    --
    GPL ist neo-amerikanische Freiheit: du bist gezwungen frei - von jeder Moeglicheit die sie schaedlich erachten

    Re: Warum? (Score:0)
    Von Anonymer Feigling am Saturday 25. February 2006, 12:18 MEW (#15)
    "Damit die Leute nicht vergessen, dass es einmal besseres gab."

    Dann nenne doch bitte einfach mal etwas. LISP, SmallTalk, Eiffel, Oberon oder was soll C abloesen?

    "Auch bestes Powermangement kann nur Leerzyklen einsparen."

    Powermanagement betrifft doch nicht nur die CPU. Einer der groessten Stromfresser sind doch moderne Grafikkarten und auch sonst ist auf vielen Boards unnuetzer oder wenig genutzer Kram. Leider lassen sich die Teile nicht immer abschalten oder runtertakten, da sie dann nicht wieder hochkommen oder die Befehle einfach ignorieren bzw. sich nicht an Standards halten. Die Hersteller fixen solche Probleme oft in Windowstreibern, koennen aber Mangels Dokumentation nicht in freien Treibern genutzt werden.

    "Und einen HALT opcode im Thread Sheduler wenn bis zum naechsten Interrupt nix mehr zu rechnen ansteht konnte schon jeder 1970er 8bit Rechner."

    Ja, aber oft mit Null-Effekt fuer den Stromverbrauch. Powermanagement ist heutzutage besonders in Notebooks *etwas* ausgefeilter. Hier geht es weniger um das Abschalten, als um das Runtertakten bzw. deaktivieren von *Teilen* der CPU z.B. der MMX/SSE-Einheit wenn sie gerade nicht gebraucht werden. Das gilt nicht nur fuer die CPU, sondern auch den Rest der Hardware.
    Wenn du mal in deinen Kernel schaust wirst du sehen, dass eben nicht HLT genutzt wird. Oft wird eine BIOS-Routine genutzt, die CPU-spezifische Instruktionen enthaelt.
    Wenn du mal diverse Mailinglisten liest, wirst du feststellen, dass Leute sich durchaus ueber die verringerte Akkulaufzeit oder konstantes Luefterlaufen unter Nicht-Windows beklagen. Eben weil ein Teil des Powermanagements oft nicht unterstuetzt wird. Gerade Notebooks enthalten immer wieder herstellerspezifische Hardware, die nicht dokumentiert ist und daher in Linux etc. nicht voll unterstuetzt werden kann.

    Man koennte sowieso viel Strom sparen, wenn man auf die voellig ueberdimensionierte Grafikhardware verzichtete. Ein Grossteil des Stroms wird ja auch durch die Netzteile verschwendet, die diese Chips verlangen. Ich habe meine droehnende NVidia GF440 MX rausgeschmissen und durch eine "veraltete" luefterlose Matrox G400 mit wesentlichem besseren Bild ersetzt. Letzteres war der Hauptgrund, da erstere fuer einen 19"-CRT dank Matschbild voellig ungeeignet ist.

    Linux User Group Schweiz
    Durchsuche symlink.ch:  

    Never be led astray onto the path of virtue.
    trash.net

    Anfang | Story einsenden | ältere Features | alte Umfragen | FAQ | Autoren | Einstellungen