Artificiell intelligens i Linuxdistributioner: nutid och verklig framtid

  • Linux och öppen källkod är den tekniska och strategiska grunden som mycket av den nya vågen av artificiell intelligens byggs på.
  • Det finns nya förslag på distributioner med inbyggd AI, lokala verktyg som Ollama och Perplexity, och företagslösningar som RHEL Lightspeed för att integrera AI i vardagen.
  • Öppna plattformar som Acumos strävar efter att göra AI-modeller återanvändbara och tillgängliga, vilket stärker Linux position gentemot slutna lösningar från andra system.

Artificiell intelligens i Linuxdistributioner

La artificiell intelligens i Linuxdistributioner Det slutar vara en futuristisk idé och blir en mycket konkret verklighet: kommandoradsassistenter, lokala modeller som körs på din bärbara dator, öppna plattformar för att dela algoritmer och till och med kompletta visioner av operativsystem som är inbyggda i AI. Allt detta händer samtidigt som Windows, Apple och Android pushar in sina egna lager av "inbäddad AI" i systemet.

Samtidigt finns det Linux-användare som ser på detta drag med stor misstänksamhet: oro för integritetDet finns ett avvisande av tom marknadsföring som stämplar allting som AI, och en rädsla för att traditionella Linux-distributioner kommer att bli fulla av ogenomskinliga tjänster som förbrukar resurser och spionerar på användare. Bland dem som växlar mellan Ubuntu, Linux Mint och andra distributioner finns det många som är redo att byta sida så fort de känner lukten av "invasiv AI", även om det är "valfritt".

Linux, öppen källkod och dess roll i AI-explosionen

För att förstå var allt detta hör ihop är det värt att komma ihåg att Linux är dagens osynliga pelare av en stor del av världens infrastruktur: från servrar och superdatorer till de flesta molntjänster. Det som började 1991 som ett personligt projekt av Linus Torvalds, tillkännagivet nästan i förbifarten i en forumtråd, slutade med att bli kärnan i det mest använda operativsystemet i historien.

I de inledande meddelandena erkände Torvalds öppet att hans system ”inte skulle bli lika stort och professionellt som GNU”. Ingen kunde då föreställa sig att Linux skulle dominera molnet. Inte heller att jättar som avskydde det skulle anamma det år senare. Under en tid beskrev Microsoft till och med Linux som "en cancer", med en av de mest klumpiga och kortsiktiga fraser som någonsin setts i branschen.

Två decennier senare, med Satya Nadella vid rodret, skiftade diskursen till det berömda "Microsoft ❤️ Linux"Flytten var inte bara för syns skull: idag är Linux det mest använda operativsystemet på Azure. Mer än 60 % av erbjudandena på Azure Marketplace är baserade på Linux – vi pratar om cirka 20 000 lösningar – och mer än 60 % av de virtuella maskinkärnorna som körs där använder någon Linuxdistribution.

Det åtagandet går så långt att Microsoft underhåller sin egen kärna, Azure Linux, designad för dess arbetsbelastningar och tjänster, men det är bara en liten del av ekosystemet. Azure stöder en mängd olika Linux-varianter. Fullt stödda distributioner inkluderar Red Hat Enterprise Linux, Debian, SUSE, Canonical (Ubuntu), Oracle Linux, CentOS och andra. De får cirka tusen avbildningar per månad enbart från dessa "officiella" partners, många av dem specialiserade varianter, såsom SUSE:s HPC-utgåvor inriktade på högpresterande datoranvändning.

Allt detta sker parallellt med en veritabel explosion av projekt med öppen källkod för alla tänkbara funktioner. Den decentraliserade samarbetsmodellen är den som de facto dominerar mjukvaruinnovation. Och artificiell intelligens, som redan dominerar rubriker och budgetar, kunde inte lämnas utanför denna dynamik: framtiden för många av dessa algoritmer beror oundvikligen på öppna modeller eller åtminstone på en progressiv öppning som gör det möjligt att bygga lösningar kring dem.

Öppna modeller, stora aktörer och spänningen mellan näringsliv och samhälle

Inom området viktiga språkmodeller, debatten om verklig öppenhet kontra pseudo-öppen källkod Den arbetar med full kapacitet. Meta har till exempel släppt successiva versioner av Llama 3 och presenterat dem som vägen framåt inom öppen AI, samtidigt som de bibehåller restriktioner och licensnyanser som får många experter att inte betrakta dem som helt "öppen källkod".

Något liknande händer med mistralEtt franskt företag som har skapat en betydande nisch med modeller som Mistral Large 2. Deras utgåvor inkluderar anmärkningsvärda förbättringar och samtidigt licenser med tvivelaktiga tolkningar. Hur som helst, på grund av rent marknadstryck och teknikgemenskapens natur, kommer många av dessa modeller så småningom att få helt öppna versioner, anpassade, beskurna och finjusterade av tredje part.

I det här scenariot är den grundläggande frågan Var finns det verkliga värdet i AI-kedjan?Å ena sidan har vi de som fokuserar på att utveckla basmodellerna, ofta med enorma summor pengar som spenderar (OpenAI-fallet är ett utmärkt exempel). Å andra sidan finns det de som antar en pragmatisk strategi och använder alla tillgängliga modeller på ett agnostiskt sätt för att bygga "vertikala" artificiella intelligenser, skräddarsydda för specifika affärsproblem eller mycket definierade sammanhang.

Denna spänning definierar vem som kommer att fånga det långsiktiga värdet: tillverkarna av gigantiska modeller eller integratörerna som vet hur man utnyttjar dem i specifika lösningar. Linux och öppen källkodPå grund av deras flexibilitet och allestädesnärvaro i servrar och enheter är de bördig mark för framväxten av just de vertikala lösningar som stöds av AI.

Visionen om en Linuxdistribution med inbyggd AI för slutanvändaren

Medan Windows Copilot Plus eller Androids "smarta lager" försöker övertyga användare om att AI bör bäddas in i operativsystemet, även med förslag om att AI-webbläsareI pingvinernas värld har förslag framkommit som höjer en Linuxdistribution designad från grunden kring AI, särskilt inriktad på bärbara datorer och surfplattor för konsumenter.

Tanken är att bryta med den traditionella synen hos många distributioner, som behandlar Linux som ett neutralt substrat där användaren bygger sin miljö genom att välja en skrivbordsmiljö, konfigurera paket och brottas med hårdvarudetaljer. I kontrast är frågan som ställs: Vad bör en hushållsapparat erbjuda år 2025? Svaret som dess förespråkare ger låter tydligt: ​​flytande intelligens integrerad i varje interaktion, från kameran och ljudet till terminalen.

I det här konceptet med en nativ AI-distribution levereras systemet som en sammanhängande uppsättning beslut. Det handlar inte bara om att placera en assistent i den översta listen, utan om att introducera förbättringar av livskvaliteten i varje hörn: kamera, mikrofon, högtalare, strömförbrukning, digital penna, webbläsare och till och med systemets lösenordshanterare eller VPN.

Den viktigaste förutsättningen är att en stor del av dessa funktioner utförs om NPU:er och lokala modellerutnyttja den nya hårdvaran som de börjar integrera AMD-chipsIntel eller Qualcomm. Detta skulle möjliggöra en "alltid påslagen AI"-upplevelse utan att offra integritet eller ständigt förlita sig på molnet.

I detta sammanhang föreslår vissa specialiserade företag, såsom Q2BSTUDIO, att stödja organisationer som vill dra nytta av idén om "inbyggd AI" i sitt eget ekosystem: från design av lokala modeller och intelligenta agenter till driftsättning i produktion på moln som AWS eller Azure, alltid med fokus på cybersäkerhet, efterlevnad och skalbarhet.

Visuell intelligens och biometri på framtidens Linux-skrivbord

En av grundpelarna i den AI-fokuserade distributionen skulle vara visuell intelligensBörjar med något så vanligt som webbkameran. Systemet skulle automatiskt kunna tillämpa subtil ansiktsförsköning, ljuskorrigeringar, bakgrundsoskärpa eller -ersättning och omskalning av video i realtid, ungefär som det vi redan ser i vissa appar, men integrerat på systemnivå.

Nyckeln är att dessa bildbehandlingsuppgifter hanteras lokalt, med stöd av enhetens NPU, för att undvika att känsliga data exponeras för molnet. En liten systemindikator kan visas när som helst. vilken accelerator (NPU eller GPU) Det är agerande, vilket ger transparens och kontroll för den mer tekniska användaren.

Inom säkerhetsområdet skulle kombinationen av kameror och sensorer möjliggöra kompletta biometriska metoderFingeravtryck som primärt upplåsningsalternativ och ansiktsigenkänning som ett sekundärt alternativ när en webbkamera är tillgänglig. Allt detta utan att förlita sig på proprietära lösningar och stödja moderna standarder som FIDO2 och WebAuthn med lösenord.

Tanken är att användare kan välja sin föredragna biometriska metod, alltid med möjlighet att använda lösenord om det behövs. Detta kombinerar bekvämlighet, integritet och kompatibilitet med webbtjänster som redan förstår dessa tekniker, utan att vara bunden till det slutna ekosystemet hos en enda leverantör.

Ljud, diktering och förbättrad kommunikationsupplevelse

Den andra viktiga komponenten i en Linuxdistribution med integrerad AI skulle vara intelligens tillämpad på ljudDetta inkluderar brusreducering i realtid för möten, samtal och inspelningar, men även lokal röst-till-text-transkription för anteckningar, utkast till e-postmeddelanden eller användning av diktering som en delvis ersättning för tangentbordet.

Genom att arbeta med lokala modeller kan systemet lära av dem. användarens talmönsterDen använder deras jargong, vanliga tekniska termer och frekventa egennamn, vilket förbättrar noggrannheten utan att behöva skicka ljudklipp till tredje part. Dessutom erbjuder den möjligheten till lokal översättning, vilket genererar undertexter i realtid på det valda språket.

Tänk dig ett videosamtal där systemet sköter om att producera undertexter och översättningar i bakgrunden och byter språk direkt utan problem. Hela flödet skulle stanna kvar i enhetenDetta är särskilt attraktivt för känsliga miljöer: advokatbyråer, forskare, journalister, offentliga institutioner etc.

Dessutom, på talarnivå, skulle AI kunna ta kontroll över en system global ljudbehandlingDetta förbättrar röstuppfattningen, balanserar volymen mellan olika applikationer och skapar ett kraftfullare ljud utan att öka energiförbrukningen. Målet: att säkerställa att samtal, konferenser och multimediainnehåll alltid låter tydligt, även med mindre avancerad hårdvara.

En global AI-agent och en verkligt intelligent terminal

Kärnan i detta förslag är idén om en AI-agent tillgänglig hela tiden från den översta fältet eller via en kortkommando. Denna agent kan "läsa" skärminnehållet lokalt, förstå sammanhanget och utföra åtgärder: öppna program, skapa filer, söka efter information, diagnostisera fel eller föreslå lösningar.

Det väsentliga villkoret är att bildbehandlingen sker på själva enheten, så att skärmdumpar eller representationer av skärmen inte lämnar enheten. På så sätt kan användaren begära saker som "förklara detta fel", "sammanfatta detta dokument" eller "automatisera dessa steg" med en viss grad av integritetsskydd.

Parallellt med Linuxterminalen skulle bli en mycket mer användarvänlig programvara.Istället för att bara vara ett råtextgränssnitt skulle det innehålla kontextuell autofullständighet, inline-förklaringar av felmeddelanden och popup-dokumentation när man håller muspekaren över ett kommando. Frågor som "hur installerar jag det här paketet i den här distributionen?" skulle returnera kopieringsklara kommandon och en steg-för-steg-guide.

Röstfunktionen skulle också spela en viktig roll: du kan säga till systemet "skapa en användare med begränsade behörigheter för testning" och ta emot motsvarande skript, eller till och med låta systemet köra det självt efter din bekräftelse. Skalet skulle förbli detsammamen överladdad med ett lager av intelligens inriktad på produktivitet och kontinuerligt lärande.

Strömförsörjning, ljusstyrka och hårdvaruhantering med hjälp av lokala modeller

Ett annat område där AI kan bidra avsevärt till Linux är optimering av energiförbrukning och grafikhårdvaran. Ett exempel är den dynamiska justeringen av skärmens ljusstyrka baserat på omgivande ljus, med hjälp av frontkameran som en extra sensor när det inte finns någon dedikerad ljusmätare.

Dessutom finns det inbyggt stöd för variabel uppdateringsfrekvensSmartare beslut om när man ska prioritera NPU:n framför GPU:n eller CPU:n för AI-uppgifter och lära sig energianvändningsmönstret för varje applikation. Med den informationen kan systemet identifiera processer som kan skjutas upp och föreslå energisparlägen som har en verklig inverkan på batteriets livslängd.

Det fina med den här metoden är att systemet inte är begränsat till att visa en generisk procentandel av "batterisparad", utan kan lära ut specifika förbättringsscenarierVad skulle ha hänt om en viss process hade skjutits upp, hur mycket sparades genom att återanvända NPU:n istället för GPU:n, etc. Detta hjälper användaren att förstå varför det är värt att acceptera vissa rekommendationer.

Arkitekturmässigt är den viktigaste delen en NPU-orkestreringslager Den bör i realtid avgöra var varje uppgift ska utföras: om en NPU är tillgänglig används den; om inte, dirigeras den till GPU:n eller CPU:n efter behov. Detta lager bör fungera transparent för den genomsnittliga användaren, men ge tydlig information för alla som vill övervaka vad som accelereras och hur.

Användarupplevelse, digital penna och uppkopplat ekosystem

Utöver "synlig" AI skulle en distribution designad för slutanvändaren behöva erbjuda en polerad ekosystemupplevelseintegrerad global emoji-väljare, VPN på systemnivå med app-routing, förinstallerad lösenordshanterare med öppen källkod som är tillgänglig från inloggningsskärmen och en Optimerad inbyggd webbläsare, med möjlighet att inaktivera AI-funktioner och synkroniseras med resten av systemet.

Detta skulle vara utöver funktioner som liknar KDE Connect för integrera Android-mobilen heltenkel filöverföring, aviseringsspegling, delad mediekontroll och andra små bekvämligheter som gör att det hela känns "enhetligt" utan att man behöver tillgripa proprietära lösningar.

På pekskärms- och konvertibla enheter skulle den digitala pennan vara en nyckelspelare. AI kan hantera handskriftsigenkänningDet låter dig konvertera skisser till diagram och uppgifter, räta upp former, automatiskt märka anteckningar och aktivera sökningar i manuskript. Dessutom kan du definiera specifika penngester kopplade till systemåtgärder eller kombinera dem med röstkommandon.

Allt detta bygger på små till medelstora modeller som distribueras lokalt: igenkänning av handskriven text, klassificering av anteckningar, extrahering av relevanta enheter och strukturrekommendationer. Återigen ligger fokus på att göra det möjligt för enheten att utföra dessa funktioner offline, vilket bibehåller sekretessen för anteckningar, dokument eller idéer utan att ladda upp dem helt till molnet.

Praktiska AI-verktyg för Linux-användare: Ollama och Perplexity

Utöver dessa framtidsvisioner finns det redan idag specifika verktyg för Linux Dessa verktyg förändrar hur många användare forskar, skriver eller studerar. Två av de mest intressanta, tack vare deras tillvägagångssätt och det faktum att de erbjuder gratisversioner, är Ollama och Perplexity.

Många blev inledningsvis mycket kritiska till generativ AI eftersom de såg i den en kreativ genväg som devalverade mänskligt arbete inom skrivande, illustration eller design. Men när fokus flyttas från att "skapa innehåll" till att "göra bättre research" förändras uppfattningen ofta: det som en gång sågs som ett hot blir ett slags förstoringsglas eller en turbosökmotor.

Ollama Det är en AI-plattform med öppen källkod som låter dig köra språkmodeller direkt på din dator, utan att behöva förlita dig på en molnleverantör. Det betyder att dina frågor aldrig lämnar din dator, vilket är avgörande om du är orolig för integritet eller arbetar med känsliga data, utkast, interna rapporter eller klientdokumentation.

En av Ollamas mest intressanta funktioner är dess snabbvägbeskrivningsbibliotekDu kan definiera anpassade uppmaningar och återanvända dem utan att behöva skriva dem från grunden varje gång. Till exempel: ”Fördjupa dig i följande ämne och utforska eventuella relevanta underämnen:”. Detta effektiviserar ditt arbete avsevärt och säkerställer en konsekvent forskningsstil.

Dessutom låter Ollama dig skapa vad som kallas "kunskapsstackar": uppsättningar av lokala dokument som modellen använder som kontext. Om du är skribent, forskare eller tekniker och redan har flera artiklar eller rapporter om ett visst område kan du gruppera dem och ställa specifika frågor som modellen ska besvara, med hänsyn till deras kontext. bara ditt eget materialDet är som att bygga ett privat, intelligent söksystem ovanpå ditt personliga bibliotek.

För att göra det enklare finns det gränssnitt som t.ex. MstyDessa verktyg fungerar som ett gränssnitt för Ollama och underlättar hanteringen av prompter, modeller och kunskapsstackar. I praktiken använder du AI:n nästan som du skulle använda en interaktiv digital anteckningsbok.

Det andra anmärkningsvärda verktyget är BryderiDen fungerar som en hybrid mellan en sökmotor och en forskningsassistent. Den kan användas från en webbläsare, men har även en skrivbordsapplikation för Linux, vilket erbjuder en renare och enklare miljö.

Förvirring har två huvudsakliga lägen: sök, för att få snabba svar med citerade källor, och undersökaDen startar en djupgående analys som kan ta upp till 30 minuter och producerar en ganska detaljerad rapport, perfekt när man har att göra med komplexa eller dåligt dokumenterade ämnen. Under processens gång visar den vilka uppgifter den utför och vilka källor den konsulterar, så att du bättre kan förstå hur den kommer fram till sina slutsatser.

En annan stark sida är UtrymmenDessa fungerar som ämnesbehållare. Du kan gruppera alla dina frågor om en bok, ett projekt, en avhandling eller en specifik klient där, utan att blanda resultaten. Detta gör det mycket enklare att återgå till en forskningsinriktning veckor senare utan att förlora sammanhang.

Gratisversionen av Perplexity är generös, även om den begränsar antalet avancerade sökningar per dag. För de som behöver arbeta intensivt finns det en betald professionell plan med mer än 300 "Pro"-sökningar per dag, men många Linux-användare klarar sig utmärkt med gratisalternativet. minska brus jämfört med traditionella sökmotorer, dominerad av annonser och oanvändbart innehåll.

Red Hat Enterprise Linux Lightspeed: AI som hjälper administratören

Inom affärssfären är ett av de mest konkreta förslagen från AI integrerad i en Linuxdistribution Det är Red Hat Enterprise Linux (RHEL) Lightspeed. Red Hat har utnyttjat årtionden av erfarenhet med RHEL för att skapa AI-drivna verktyg med ett mycket specifikt mål: att hjälpa både nybörjare och erfarna administratörer att designa, driftsätta och hantera system mer effektivt.

RHEL Lightspeed består av två huvuddelar, som ingår utan extra kostnad för befintliga prenumeranter: a kommandoradsassistenten och ett paketrekommendationssystem integrerat i Red Hat Insights bilddesigner. Båda syftar till att minska diagnostik- och konfigurationstiden utan att användarna behöver lära sig ett helt nytt gränssnitt.

Kommandoradsassistenten finns tillgänglig i RHEL 9.6 och 10 och stöds av en Red Hat-värdbaserad tjänst. När du installerar paketet command-line-assistantanvändaren kan starta kommandot c (o cla (om det finns en konflikt med befintliga alias) och ställ frågor på naturligt språk relaterade till systemet: från problem med långsam start till tvivel om konfigurationen.

Det intressanta är att assistenten kan förlita dig på officiell RHEL-dokumentation och i Red Hats kunskapsbas för att generera sina svar, vilket gör att företagets ackumulerade kunskap kommer närmare administratörerna. Om du till exempel har en alltför långsam uppstart kan du skriva något i stil med c "Ayúdame a averiguar por qué este sistema tarda en arrancar" och du får en rekommendation baserad på verktyg som systemd-analyze time, systemd-analyze blame o systemd-analyze critical-chain, tillsammans med förslag på hur man granskar problematiska tjänster.

Förutom direkta frågor kan man bifoga loggfiler med -a så att assistenten kan analysera dem eller skicka utdata från ett annat kommando via cNågot liknande free -m | c "¿Cuánta memoria libre tengo en este sistema?" Det låter dig omvandla rådata till läsbara förklaringar. Det finns också ett interaktivt läge (c -i) och en konversationshistorik tillgänglig med c history -aallt dokumenterat på manualsidan för c.

Det är viktigt att notera att den här guiden inte kör modeller lokalt: skickar förfrågningarna till en fjärrtjänst Ingår i RHEL-prenumerationspriset. I gengäld är hårdvarukraven minimala och organisationer får en integrerad, Red Hat-stödd upplevelse, vilket är högt värderat i verksamhetskritiska miljöer.

Den andra delen av Lightspeed är integrerad i Insights bilddesignerDet här verktyget låter dig skapa RHEL-avbildningar för olika plattformar, justera partitioner, tillämpa OpenSCAP-säkerhetspolicyer och mer. När användaren väljer paket som ska inkluderas i en avbildning analyserar Lightspeed det valet och föreslår ytterligare paket som sannolikt är relevanta.

Till exempel, om paketet läggs till adcliSystemet kan automatiskt föreslå andra relaterade objekt, vilka visas i ett rekommendationsavsnitt längst ner på skärmen. Administratören granskar listan och bestämmer vad som ska läggas till, med hjälp av AI för att säkerställa att de inte förbiser beroenden eller verktyg som ofta går hand i hand.

Sammantaget avser RHEL Lightspeed att AI ska fungera som en teknisk andrepilotDet hjälper till att diagnostisera, vägleda användaren till rätt dokumentation, föreslå paket och påskyndar felsökning, utan att ersätta administratörens omdöme eller förvandla systemet till en okontrollerbar "svart låda".

Linux Foundation och Acumos: en öppen plattform för återanvändbar AI

På ekosystemnivå har Linux Foundation arbetat i åratal för att främja öppen källkodsprojekt inom viktiga områden, och artificiell intelligens är en av de mest strategiska fronterna. En av dess mest slående insatser inom detta område är Acumos-plattformen, utformad som en branschstandard för att göra AI-applikationer återanvändbara och enkla att använda.

Acumos motivation härrör från en tydlig verklighet: många nuvarande AI-lösningar är utformade för dataforskareDe kräver en hög grad av specialisering och är inte särskilt tillgängliga för genomsnittliga mjukvaruutvecklare. Plattformen syftar till att fokusera på slutanvändaren och underlättar skapandet av applikationer och mikrotjänster baserade på befintliga modeller.

Bland de ursprungliga supportrarna fanns företag som AT&T och Tech Mahindra, men tanken var alltid att andra aktörer skulle gå med i projektet och definiera sin egen styrningsmodell. Acumos lovar att låta utvecklare redigera, integrera, komponera, paketera, träna och driftsätta. AI- och maskininlärningsapplikationer på en gemensam och öppen grund.

Med Jim Zemlins, verkställande direktör för Linux Foundations, ord, främjar en öppen och uppkopplad AI-plattform samarbete och möjliggör för utvecklare och företag Definiera framtiden för AI tillsammansEftersom den är öppen källkod bör den vara tillgänglig för alla som är intresserade av artificiell intelligens och anpassningsbar för mycket specifika behov.

I praktiken innebär detta att organisationer som arbetar med autonoma fordon, drönare, innehållskurering och analys, och andra olika områden, kan dela och återanvända AI-komponenter utan att uppfinna hjulet på nytt. Mazin Gilbert, vice vd för avancerad teknik på AT&T Labs, sammanfattade det med att notera att Acumos kommer att accelerera innovation och implementering av AI-applikationer, vilket gör dem tillgängliga för en mycket bredare publik.

Även om projektet har haft sin egen takt och sina justeringar, representerar det korrekt den riktning som Linux-ekosystemet rör sig i: att bygga öppna infrastrukturer som gör att AI inte blir en exklusiv domän för slutna jättar, utan ett verktyg som vem som helst kan studera, modifiera och driftsätta enligt sina egna regler.

Om man sammanfattar alla dessa delar – expansionen av Linux i molnet, öppna eller halvöppna modeller, lokala verktyg som Ollama, assistenter som Perplexity, företagslösningar som RHEL Lightspeed och plattformar som Acumos, plus visionerna om distributioner med inbyggd AI riktad mot slutanvändaren – blir det ganska tydligt att framtiden för artificiell intelligens i Linuxdistributioner... Det handlar inte om att bara kopiera vad Windows eller macOS gör.utan genom att utnyttja flexibiliteten, transparensen och gemenskapen hos öppen källkod för att designa intelligenta upplevelser som respekterar integritet, maximerar återanvändning och erbjuder verklig kontroll till användaren, från den mest erfarna systemadministratören till någon som bara vill att deras bärbara dator ska vara "smart" utan att bli en brevlåda för tredjepartsdata.

AMD Ryzen AI 400 och Ryzen AI Max+ på CES 2026
Relaterad artikel:
AMD driver eran av AI-drivna datorer framåt med Ryzen AI 400 och Ryzen AI Max+ på CES