CES 2025 - Lenovo Neuankündigungen

Tja, wer halt nicht mit Kompetenz/Leistung glänzen kann, der greift halt eher zum "hippen" MacBook;)

Ausnahmen bestätigen die Regel:)
Kommt halt glaube ich auch immer auf's Unternehmen und die Branche drauf an. Wo ich vorher war, konnte sich jeder sein Arbeitsgerät selbst aussuchen. Wir hatten nur ein MacBook, ansonsten hatten alle Kollegen ThinkPads. Als ich gegangen bin, sind auch mal ein Dell XPS und ein Framework Laptop eingezogen. Die Erfahrungen mit dem Dell waren aber so durchwachsen, dass der Kollege zum ThinkPad zurück ist. Wie die Erfahrungen mit dem Framework aussehen weiß ich nicht, da bin ich gerade weg. Erste Tests waren gut, aber mehr kann ich nicht sagen. Wo ich jetzt bin haben wir praktisch ausschließlich (modifizierte) ThinkPads. Ausnahmen sind nur geringe Altbestände aus Zeiten, als es mal Lieferschwierigkeiten gab oder Sonderlösungen für Spezialanwendungen.
Könnte mir vorstellen, dass es in nicht-IT-Unternehmen durchaus anders aussieht. Und natürlich Branchen wo es mehr um (Web-)Design u.ä. geht. In letzteren sind MacBooks ja quasi gesetzt. Ebenso im Bereich professionelle Fotobearbeitung und Videoschnitt. Warum auch immer - ist ja nicht so, dass das auf Windows-Geräten (mindestens) ebenso gut geht?
 
Zuletzt bearbeitet:
kann mir nicht vorstellen das AI der Kaufgrund für irgendwen
Für mich wäre langsam keine KI ein Kaufgrund. Die Anwendungen, für die KI genutzt wird, sind meist ziemlicher Crap. Lokal werde ich mir kein LLM einbauen - das himmelt dir ja jegliche Akkulaufzeit, frisst unfassbar viel Speicher. Usw..
Und ich mag prinzipiell ein paar KI-Anwendungen. Die sind einfach für einzelne Sachen unfassbar praktisch.
Ich habs auch so verstanden, es gibt Firmen die wollen AI nutzen, aber bitte nur lokal
Zumindest wenn wir über größere Firmen sprechen, verstehe ich nicht, warum man sich dann nicht ein eigenen Server mit KI aufbaut, anstelle immer für KI mitzubezahlen, die am Ende eh kaum was taugt. Diese ganzen reduzierten KI-Sachen taugen oft nur für minimalste Anwendungen, wenn überhaupt.
Kommt halt glaube ich auch immer auf's Unternehmen und die Branche drauf an.
Da stimme ich dir absolut zu. Ich halt es für ziemlich absurd, Macbooks/Macs per se als Schrott abhandeln zu wollen. Macs sind eine Katastrophe in Reparierbarkeit, Aufrüstbarkeit + Co.. Ich persönlich find das OS auch ziemlich hässlich/veraltet (vom Aussehen her). Aber: Macs sind einfach extrem effizient für die Leistung. Sie haben meist richtig gute Bildschirme - ohne dass man erstmal explizit darauf achten muss, was man nimmt. Sie werden ziemlich lange unterstützt. Leistungsmäßig sind sie halt auch ziemlich gut. Apple ist sehr erfolgreich - und nein, das basiert halt nicht nur auf der Religion - aber schon ein wenig.

Und für ein paar Sachen MUSS man leider Apple-Hardware nutzen. Ist durch sie Zwang - ich wünschte auch, dass da mal die Wettbewerbshüter reingehen. Aber z.B. für die Kompilation & Publikation von iOS-Apps braucht man halt zwangsläufig Mac-Hardware.
 
Lokal werde ich mir kein LLM einbauen - das himmelt dir ja jegliche Akkulaufzeit, frisst unfassbar viel Speicher. Usw..
Kann aber auch Vorteile haben, zum Beispiel, dass Microsoft deswegen die Anforderungen für den Arbeitsspeicher praktisch auf 16 GB angehoben hat und damit verlötete 8 GB Konfigurationen endlich langsam aussterben.

Zudem: Dafür, dass es effizient läuft, soll ja die NPU sorgen. Letztlich ist es ähnlich wie eine GPU nur eine weitere Art von Prozessor, der bestimmte Aufgaben effizienter berechnen kann als die klassische CPU.
 
damit verlötete 8 GB Konfigurationen endlich langsam aussterben.
So hab ich das noch nicht betrachtet, das stimmt xD.
Zudem: Dafür, dass es effizient läuft, soll ja die NPU sorgen. Letztlich ist es ähnlich wie eine GPU nur eine weitere Art von Prozessor, der bestimmte Aufgaben effizienter berechnen kann als die klassische CPU.
Ja, die sind effizienter. Aber sie sind halt auch keine Magie. Nicht für umsonst werden für die großen LLMs ja entsprechende GPUs genutzt. Wenn das in ähnlicher Qualität mit viel weniger Stromverbrauch und Hardwarekosten machbar wäre, dann würden OpenAI, Google und Co. das auch machen. Auch ne NPU frisst Energie. Und das oft für Funktionen, nach denen niemand gefragt hat.
 
So sieht es aus...

Wobei ich Unternehmen kenne, wo die "normalen" Mitarbeiter quasi nur den Webbrowser und vielleicht noch Outlook inkl. MS Teams für die eigentliche Arbeit benötigen, trotzdem entscheiden sich dann die meisten (bei freier Wahl ob Windowsgerät oder MacBook) für das "tollere" MacBook - Ausnahmen bestätigten dort auch wie gesagt die Regel ;)
 
Naja, der AI-Kram und die NPU helfen gerade auch bei Sachen wie Videokonferenzen (Background Blur mit weniger Akkuverbrauch, Augenkorrektur, so dass es aussieht als würdest Du in die Kamera schauen, auch wenn Du gerade etwas abliest etc)
 
Stimmt das hab ich auch gehört.(geringerer Akku Verbrauch, kleinere CPU -Last)
Ist das mal von jemandem von euch getestet worden ?
 
Zuletzt bearbeitet:
Die bisher beste Erkkärung bzgl NPU habe ich von TechAltar gesehen: sehr gut aufgeschlüsselt und die Evolution des Coprozessors von Mobilgeräten hin zu Desktops skizziert. Auch interessant ist die Abgrenzung zu GPUs.
 
Zuletzt bearbeitet:
Zudem: Dafür, dass es effizient läuft, soll ja die NPU sorgen. Letztlich ist es ähnlich wie eine GPU nur eine weitere Art von Prozessor, der bestimmte Aufgaben effizienter berechnen kann als die klassische CPU.
Nach Experimenten mit lokalen KI Inferencing sehe ich NPUs skeptisch.

Wenn ich sehe was ein NVidia RTX 4080 Ti ausspuckt, finde ich es wenig überzeugend und zweifele ob in Sachen lokalen AI so viel Optimierungspotenzial steckt, um mit den wenigen Rechenleistung heutiger Notebook NPUs einen Mehrwert zu generieren.

Ich habe mir mal Die Shots angeschaut, um herauszufinden wie viel Chipfläche für NPUs "verschwendet" wird. Leider habe ich kein Bild gefunden wo die NPU explizit ausgewiesen wird. Viel kann es nicht sein denn es war nur wenig unbeschriebene Fläche übrig.

So bleibt nur Ärgernis bei Taskmanager wo die NPU mit 0 % Auslastung an Transistoren erinnert die nichts tun. Das Problem wäre behoben wenn MS die Anzeige im Taskmanager rauspatcht.
 
Ich habe mir mal Die Shots angeschaut, um herauszufinden wie viel Chipfläche für NPUs "verschwendet" wird. Leider habe ich kein Bild gefunden wo die NPU explizit ausgewiesen wird.
Zufälligerweise wird genau dies in dem von mir zuvor verlinkten Video gezeigt. Interessant ist dabei zu sehen dass die NPU Die Fläche nicht proportional zur Gesamtfläche des Chips skaliert wird.
 
Moin,
hier ist auch noch was von Keno

Beitrag automatisch zusammengeführt:

...einen hab ich noch...auch von Keno
 
  • ok1.de
  • ok2.de
  • thinkstore24.de
  • Preiswerte-IT - Gebrauchte Lenovo Notebooks kaufen

Werbung

Zurück
Oben