Fragen? Antworten! Siehe auch: Alternativlos
Nvidia announced a collaboration with Hippocratic AI on Monday, a healthcare company that offers generative AI nurses who work for just $9 an hour. Hippocratic promotes how it can undercut real human nurses, who can cost $90 an hour, with its cheap AI agents that offer medical advice to patients over video calls in real-time.
Ja gut, wenn du einen Notfall hast, stirbst du dann halt. Auf der anderen Seite, wenn du den Arzt per Videocall diagnostizieren lässt anstatt hinzugehen, dann bist du ja eh nicht an der Verbesserung deiner Gesundheit interessiert, gell? (Danke, Roman)
Das ist so eine monströse Blase, dieser KI-Scheiß. Das wird schmerzhaft, wenn die platzt.
Gut, das ist in Silicon Valley nicht ungewöhnlich, passiert sozusagen ständig. Aber in den meisten Fällen stimmt es schlicht nicht. Der Nachweis ist auch notorisch schwierig, zum Beispiel bei den Klagen von SCO gegen IBM.
Und es stellt sich natürlich die Frage, woher der Kläger das überhaupt wissen will. Nun, in diesem Fall war das relativ einfach. Nvidia hat bei einer Präsentation beim späteren Kläger Code gezeigt, den der Kläger wiedererkannt hat. Die haben dann schnell einen Screenshot gemacht, bevor der Vortragende kapierte, was gerade passiert.
Man findet einfach kein gutes Personal mehr. Fachkräftemangel und so.
In diesem Fall kommt noch dazu, dass der Vortragende von Nvidia bei dem Kläger abgeworben wurde, und schon in Deutschland vor Gericht zugegeben hat, dass er Code hat mitgehen lassen.
Cryptocurrencies add nothing useful to society, says chip-maker NvidiaTech chief says the development of chatbots is a more worthwhile use of processing power than crypto mining
Das sagt Nvidia, nachdem sie Milliarden mit Mining-Hardware verdient haben, und erst nachdem sie in bei den Minern in Ungnade gefallen sind.Lenin hat mal gesagt: Die Kapitalisten werden uns noch den Strick verkaufen, mit dem wir sie aufknüpfen.
Er lag nicht so weit daneben. Die Kapitalisten verkaufen dir noch die Grafikhardware, mit der du den Planeten in den Hitzetod schickst.
Die Älteren unter euch werden sich noch erinnern, dass Nvidia mal Grafikhardware verkauft hat. Das haben sie offenbar aufgegeben. Jetzt liefern sie Chatbot-Hardware. m(
Siemens, die Firma, die uns Stuxnet gebracht hat! Zusammen mit Nvidia, der Firma, wegen der Microsoft Grafiktreiber in den User Mode geschoben hat, damit sie nicht immer einen Blue Screen verursachen.
Immerhin wissen wir jetzt, wieso Deutschland plötzlich ein Handelsdefizit hat.
Für die allermeisten Anwendungen wird das aber reichen. Die Leute haben sich ja auch mit der Management Engine und UEFI abgefunden.
Ich persönlich applaudiere. Es hat nur wenige Jahrzehnte gedauert, und Linus musste ihnen öffentlich den Stinkefinger zeigen!
Sollte sich etwa Scammer-Bedarf verkloppen mehr lohnen als das Hehlen von illegal ausgespähten Daten?
Nein nein, keine Sorge. Google ist noch mal deutlich vor Nvidia und Facebook, sogar nochmal viel größer als beide zusammen.
Das ist bemerkenswert, weil die Grundlage dafür "national security grounds" ist. ARM ist aber jetzt schon in ausländischen Händen, nämlich bei Softbank, einem japanischen Investmentfonds. Da hatten sie noch nichts dagegen, als Softbank ARM kaufte. Warum nicht?
Schade eigentlich, dass die EU da nicht im Namen der digitalen Souveränität zugeschlagen hat. Regulatorisch war der Einspruchs-Zug wahrscheinlich schon abgefahren, weil sie damals dem Verkauf an Softbank zugestimmt hatten, die Deppen. Schade eigentlich.
Ach naja, wird die EU halt zum reinen Konsumenten-Absatzmarkt für Unternehmen aus den USA und Fertigung aus China. Die Amis sind seit Jahren praktisch nur noch Konsumenten, und denen geht es doch auch super!1!!
Update: Und ab demnächst gibt es dann keine Open-Source-Treiber mehr für Mellanox?
Wie groß ist das Problem? So groß:
The glut is so severe that one top Asian OEM partner reportedly returned 300k GPUs to Nvidia.
Oh wow. Äh … wieviele Grafikkarten haben die denn da an Miner verkloppt?! Und vor allem: Wieviel hat AMD verkloppt, denn die sind ja angeblich besser geeignet für Mining!
One engineer told The Register that when he tried to run identical simulations of an interaction between a protein and enzyme on Nvidia’s Titan V cards, the results varied. After repeated tests on four of the top-of-the-line GPUs, he found two gave numerical errors about 10 per cent of the time.
Ich finde ja, die sehen das viel zu negativ. Die Karte hat auch einen Hardware-Zufallszahlengenerator!Update: Ein Einsender hat eine Alternativerklärung:
Erstmal klingt es nur nach jemanden dessen Code auf der neuesten GPU nicht mehr richtig funktioniert.
Das kann bei GPUs sehr leicht passieren, weil sie massiv parallel auf den gleichen Problemen arbeiten, das Programmiermodell sehr wenige Garantien darüber gibt, in welcher Reihenfolge der Code abgearbeitet wird und oftmals schlampig synchronisiert wird. Man findet sehr häufig Sachen im Code, die laut Programmiermodell eigentlich unsafe sind, aber auf bestehender Hardware eben funktionieren, weil dort noch zusätzliche Randbedingungen bezüglich Ausführungsreihenfolge eingehalten werden. Da wird dann gerne Code geschrieben, der etwas schneller ist, weil er sich Synchronisierungen spart. Bei der Titan V hat NVidia wohl die Verarbeitung von Sprüngen verbessert, was aber gleichzeitig dafür sorgen dürfte, das jetzt plötzlich Sachen gleichzeitig passieren können, die früher immer in definierter Reihenfolge ausgeführt wurden. Zusätzlich hat die Titan V mehr Kerne als ältere GPUs, was ebenfalls dazu führt, das mehr Sachen gleichzeitig ausgeführt werden, die es früher nie wurden. Ich sehe da eine hohe Wahrscheinlichkeit, das es sich einfach um kaputten Code handelt, dessen Bugs vorher nicht aufgefallen sind, weil die Eigenschaften der alten Hardware dazu geführt haben, das die Bugs nie getriggert wurden.
(Danke, Lothar)
New hotness: node.js im Nvidia-Treiber für Windows sorgt für Privilege Escalation!
"NvNode", "NVIDIA Web Helper Service". Mir kommt das Frühstück wieder hoch. Das vom Januar. (Danke, Rudolf)
Das ist SOWAS von überfällig, das glaubt ihr gar nicht. Diese Grafiktreiber sind alle die Krätze auf Erden, das Übelste des Schlimmsten. AMD, Intel und Nvidia nehmen sich da nicht viel, obwohl bei Intel immerhin mal eine Weile eine Abteilung existierte, die sich um Security kümmerte. Ich weiß nicht, ob es die noch gibt.
Wenn ich auf einem Windows-Rechner meine Privilegien eskalieren müsste, wäre mein erster Ansatz etwaiges installiertes Schlangenöl, und wenn keines installiert wäre, würde ich den Grafiktreiber untersuchen. Das sind meiner Ansicht nach die übelsten verbleibenden durchgängig furchtbar schlimmen Pestbeulen in der gesamten IT-Branche.
Money Quote:
I did this research as part of a 20% project with Project Zero, during which a total of 16 vulnerabilities were discovered.
So und jetzt überlegt euch mal, was man da finden könnte, wenn man mal ordentlich systematisch suchen würde.Update: Der Fairness halber sollte ich sagen, dass sich diese Einschätzung auf den Zustand vor ca 10 Jahren bezieht. Ich persönlich habe seit dem nicht näher geguckt. Ich habe eine Policy für meine private Security-Forschung: Ich gucke mir keine Sachen näher an, die ich selber einsetze. Wenn ich dann nämlich sehe, wie schlimm es wirklich ist, könnte ich das ja nie mehr einsetzen. Und bei vielen Sachen, die ich so einsetzen, habe ich keinen Ersatz, auf den ich ausweichen könnte. Ich habe (außer dem Intel-Security-Team) keinen Grund zur Annahme, dass seit dem irgendwas besser geworden ist.
Wollt ihr mich verarschen, AMD?
Und dann ist die Hälfte davon sinnloser Bloat und die andere Hälfte Werbung, die während des Installierens eingeblendet wird?!
Was für eine Frechheit.
Update: Wie sich rausstellt, zieht der 500 MB Installer erst mal weitere 35 MB "Mini-Installer" aus dem Internet und führt den dann aus. Unfassbar.
Update: Ein Einsender schickt einen Screenshot vom Nvidia-Grafikkartentreiber-Installer :-)
Diese Einsicht ist an sich schon ein paar Monate alt, aber das war irgendwie an mir vorbeigegangen bisher.
Stellt sich natürlich direkt die Frage, ob die Linux-Treiber auch solche Funktionalität beinhalten.
Da muss man sich ja langsam fragen, wieviel Rückenwind dieser Art AMD eigentlich noch braucht, bevor da mal was konkurrenzfähiges rauskommt.
Der Artikel behauptet, es ginge um die Perforce-Datenbank. Das ist ein Version Control System für Dokumente und vor allem für Sourcecode. Das wäre ausgesprochen peinlich, wenn Nvidia sich von AMD die Treibersourcen besorgt hätte, denn die öffentliche Wahrnehmung ist, dass Nvidias Treiber denen von AMD deutlich voraus sind. Das wäre wie wenn Miele bei GE Waschmaschinen-Knowhow klaut oder so.
Wo wir gerade bei wenig überzeugenden Herstellern waren: Auch Intel hat sich auf der CES alles andere als mit Ruhm bekleckert. Die mussten eine neue Messmethode für Energieverbrauch erfinden, weil ihre alte unehrliche Messmethode nicht unehrlich genug war. Mit der neuen Methode können sie dann ihre alten 13W-Teile als 7W-Teile anpreisen. Hintergrund: die gehen in ihrem Modell dann von der "üblichen Nutzung" aus, nicht von Maximalstromverbrauch unter Benchmarkstress o.ä., aber das ist der eigentlich entscheidende Faktor für die Bewertung dessen, ob eine CPU sich für ein Tablet oder Mobiltelefon eignet. Und genau den Eindruck wollten sie hier vermitteln, dass ihre Core-Prozessoren sich für schmale Tablets eignen. In der Praxis würde dann bei zu hoher Belastung der Prozessor zu warm und (hoffentlich) drosselt die Elektronik drumherum dann den Takt runter, damit das Ding nicht überhitzt. Ehrlicherweise müsste man dazusagen, dass man dann eben nicht die versprochene Leistung kriegt, sondern nur gedrosselte.
Dieser Eindruck drängt sich mir gerade vom gesamten CPU-Markt auf. Keiner hat da mehr irgendwelche echten Neuheiten oder Verbesserungen zu bieten, das ist nur noch Marketing-Bullshit, den sie uns in die Augen rieseln, damit uns nicht auffällt, dass es nicht mehr nach vorne geht. Dabei ist da doch nichts schlimmes bei, wenn es mal ein bisschen stockend vorangeht. Geht ja bei allen stockend voran. Dass die uns dann alle zu beschubsen versuchen, das ärgert mich.
Übrigens gibt es ja doch noch spannende Trends bei der Hardware, so ist das ja nicht. Z.B. AMD Open 3.0, das ist ein Standard für die physische Board-Form von zukünftigen Server-Einschüben. Dahinter verbirgt sich ein Vorstoß von Facebook, die gerne wie Google coole Rechner haben würden, aber gerne den Markt die Preise nach unten optimieren lassen würden, und dazu müssen die Komponenten eben austauschbar sein. Google baut sich dann ihren Kram selber, Facebook geht eher den weg, den Marktteilnehmern Vorgaben zu machen. Und so wenig Wachstum wie der PC-Markt im Moment hat, springen die Marktteilnehmer da gerne auf.
Kein Wunder also, dass die Amis weiterpatentieren, als hänge ihr Leben davon ab.
Also bin ich losgelaufen und habe mir eine neue geholt, und da hat das beste Preis-Leistungs-Verhältnis im Moment ATI (und abgesehen davon wären ja alle aktuellen Nvidia-Karten betroffen, was bleibt da schon groß übrig außer ATI).
Unter Linux supported der fglrx-Treiber das wohl, aber der kompiliert nicht mit 2.6.26. Der Open Source Treiber xf86-video-radeon aus dem git supported das so halb, wenn man die PCI IDs manuell reinpatcht. Dann kriegt man Bild, aber nur mit einer Auflösung von 1156x768 (!?!?). Ist mir völlig unklar, wo dieser Wert herkommt, jedenfalls nicht aus einer Modeline oder gar einer Auflösungs-Konfiguration fürs Display. Schlimmer noch: wenn ich ein Video mit xvideo abspielen will, ranzt X ab. Das sind echt mal wieder Zustände…
Immerhin tut die Karte unter Windows. Nur wer will schon unter Windows arbeiten. ATI-Treiber sind und bleiben halt Sondermüll.
Update: fglrx habe ich aufgegeben, aber inzwischen funktionieren radeonhd und ati aus dem git mit der nativen Display-Auflösung, aber leider beide ohne xvideo.
Leider supported mein X11R7 den Treiber nicht; stellt sich raus, daß man den X-Server mit einem ausgepackten Mesa-Source-Tree kompilieren muss, damit er die GLX-Extension überhaupt anbietet. Und das muss man auch noch als configure-Option. Und man muss aiglx ausschalten, denn das supported der Treiber wieder nicht.
Als ich das endlich am Laufen hatte, hatte die Tastatur die falschen Maps. Warum? Weil sie xfree86 nach xorg umbenannt haben in den X Keyboard Maps. Gut, kann ich mit leben.
Danach geht es, aber mit 3d Software Rendering. Stellt sich heraus, daß ATI /usr/X11R6 fest einkompiliert hat in ihre Binaries. Ich habe das aber aus naheliegenden Gründen in /usr/X11R7 installiert. Gut, daß vim auch Binaries editieren kann…
Der Nicht-ATI-Treiber lädt deutlich schneller und fühlt sich in 2d auch fixer an, aber er mag 1400x1050 nicht mehr. Wie kann das sein, hat doch vorher funktioniert? Nicht nur das, es gibt einen gültigen Mode im BIOS. Die Lösung ist, daß der neue Treiber ein Features namend "MergedFB" hat. Wenn man das abschaltet, geht es. Hat was mit 3d für externe Monitore zu tun. Im Prinzip müsste es auch mit MergedFB irgendwie gehen, aber das kann ich auch ein anderes Mal rausfinden.