Ich hab mir mal einen allgemeinen und für alle Zwecke geeigneten WebWorkerPool. Man kann die Anzahl der Worker skalieren, was auch bei den Test sich spürbar auswirkte. Auch eine ähnliche Weise sind nun auch die WebWorker auf MP4toGIF.com implementiert, was auch da alles spürbar beschleunigt hat.
Beim eigentlichen WebWorker muss man nur das Antwort-Format einhalten:
{
result:{...},
index:0
}
Index ist der Index des Workloads und wurde in event.data.index übergeben wären der eigentliche Workload in event.data.workload zu finden
ist.
function WebWorkerPool(){
this.workerScript = "";
this.workerData = []; // {msg:{},callback:function}
this.callback = null; //global callback for workerData
this.finishCallback = null;
man kann theoretisch jedem Workload eine eigene Callback-Function mit geben. Wobei eine allgemeine für alle wohl meistens reichen wird.
Wenn alle Workloads abgearbeitet sind wird die finale Callback-Function aufgerufen, um die Ergebnisse weiter zu verarbeiten.
Nach ungefähr 1,75 Jahren wechsel ist jetzt von meinem Lumia 640 auf ein Lumia 950. Nachdem das Lumia 950 meiner Frau durch ein Moto Z Play ersetzt wurde, weil es nur noch Probleme machte, wurde es eingeschickt. Der Akku lief heiß, es lies sich nicht mehr Ausschalten ausschalten sondern startete immer gleich neu. Laden war ein Glücksspiel und auch das Anschließen an den PC klappt oft nicht.
Dann kam es mit neuen Mainboard wieder und ich habe mich dann entschieden, mein 640 durch das 950 zu ersetzen.
Der Umstieg war relativ einfach, weil die wichtigen Dinge über das MS-Konto synchronisiert wurden und auch Whatsapp fand ein Backup vom Vortag auf der SD-Karte.
Aber es gibt auch andere Vorteile:
* Schnellere Kamera
* Extra Auslöse-Taste für die Kamera, wo durch man das Smartphone stabiler halten kann
* Bessere Low-Light Bilder
* 4K Video
* 2 SIM-Slots, wo durch ich Privat- und möglicher weise Freelancing-Nummer haben könnte, falls doch noch mal neue Aufträge kommen sollten
* USB 3.0 wo durch alles doch etwas schneller geht beim Bilder kopieren
Insgesamt ist der Vorteil, dass ich jetzt auch wenn ich keine DSLR dabei habe, ganz gute Fotos machen kann. 4K Video werde ich bei Zeiten mal Ausprobieren und mal gucken wie scharf und gut die Qualität wird, wenn man es dann auf FullHD runter rechnet.
In letzter Zeit scheint der Begriff Workstation wieder mal öfters aufzutreten. Gefühlt war dieser lange Zeit eigentlich Tod und Hersteller die auch auch als Hersteller von Workstations verstehen schienen auch zu verschwinden. Gefühlt ging es einher mit dem Verschwinden der RISC-Workstations und dem Aufkommen der Multi-Core CPUs im x86 und x86-64 Bereich. Viele die erst in den letzten 10 Jahren mit der professionellen IT zu tun hatten, kennen den Begriff Workstation oft nicht mal. Wenn sie hören, dass man Xeon-CPUs und keinen i3/i5/i7 verwendet hört man dann meist nur: "Ach, dass sind ja auch Server-CPUs...", was an sich aber falsch ist da Intel bis auf die E7 (vorher Xeon-7000) an sich nie CPUs gebaut hat, die rein für Server gedacht waren. Auch beim Itanium gab es Workstations und nicht nur HPC-Maschinen.
Aber was unterscheidet eine Workstation von einem normalen Desktop-PC? Wie erklärt man was eine Workstation anders macht als einen PC? Personen die noch mit Herstellern wie Sun, SGI oder DEC aufgewachsen sind, wissen einfach was eine Workstation ist. Es ist zwar eher ein Gefühl als etwas konkretes, aber man weiß dass es eine Workstation ist und dass sie scheiße teuer sein wird.
Früher (also Mitte bis Ende der 80er) gab es die 3M-Regel um eine Workstation zu definieren (passte aber auch nicht immer). Diese Regel besagt, dass alles was 1MB RAM, 1MIPS Rechenleistung und ein Display mit 1 Megapixel hat, als Workstation gelten kann.
Somit galten auch Rechner wie der Amiga 3000 und der Atari TT als Workstations. Für diese gab es jeweils ein entsprechendes Unix-Derivat. Damals gab es aber auch sowie so noch sehr viel mehr Unterscheidungen, denn es gab Homecomputer (C64, Atari ST, Amiga) und PCs (IBM PC-kompatibel und IBM PS/2 gehörten dazu), zusätzlich noch Workstations, Server (umgerüstete PCs, meist nur mit einer großen Festplatte ausgerüstet), Mini-Computer (das was jetzt ein Server ist nur etwas größer), Mainframes, Super-Computer, und noch ein paar Dinge mehr zum Terminal-Arbeitsplätze.
Schon in den 80er gab es Versuche mit Intel 386er CPUs und Workstations. Ein Beispiel ist die Sun386i, aber wirklich durchsetzen konnte sich das Konzept nicht. Anfang bis Mitte der 90er änderte Sich aber vieles. Die Homecomputer starben aus und mit ihnen auch Firmen wie Atari und Commodore. Apple hatte große Probleme und IBM suchte verzweifelt nach einem System, dass man nicht so einfach kombinieren konnte. Neue Bus-Systeme wie EISA und MCA brachten dann PCs und Workstations immer weiter zusammen. Der PowerPC wurde in IBM-Workstations und Server verwendet, fand aber auch schnell bei Apple breite Verwendung.
Und langsam begann Technologie aus dem RISC- und Workstation-Bereich in den PC-Bereich rüber zu schwappen. Mit dem Pentium wurde dann der PC auch von der Leistung her Konkurrenzfähig. Einer der ersten Hersteller von x86-Workstations war Intergraph. Deren Grafiklösungen fand man sonst eher in Alpha-Workstations von DEC, aber es gab auch Ausführungen für x86-Systeme und diese Grafiklösungen waren extrem leistungsfähig. Quake wurde von ID auf solchen Systemen entwickelt als OpenGL im Enduser-Bereich noch vollkommen unbekannt war.
Mit dem Pentium Pro (dem ersten P6 Prozessor von Intel) kam dann die Wendung im Workstation Bereich. Man konnte mit CPUs, die nur einen Bruchteil der RISC-Konkurrenz kosteten ein System bauen, dass fast oder auch oft genau so schnell war, wie eines der teuren Workstation-Systeme. Der P6 war auch die erste CPU, die für SMP Systeme mit bis zu 8 CPUS laufen konnte. Als es dann zum Pentium 2 ging (der Nachfolger des Pentium Pro und einigen Technologien aus dem Pentium MMX) kam man dann auch zu der oben eingangs gestellten Frage: "Ab wann ist ein PC eine Workstation?".
Es gibt Workstation mit CPUs aus dem Desktop-Bereich. z.B. dem i5 oder i7. Ein PC an dem man arbeitet und der mehr als eine CPU (was dann nur Xeons oder Opterons sein können) hat ist also eindeutig eine Workstation und kein PC. An einem Server arbeitet man nicht direkt und der wird wohl in einem Rack eingebaut sein oder wenigstens in einem anderen Raum stehen. Was aber nicht besagt, dass der Server nicht auf normaler PC-Hardware basieren darf. Spezielle Grafiklösungen wie Quadros sprechen auch stark für eine Workstation Bei allem darunter ist es wohl einfach auch eine Definitionssache des Herstellers. Eine HP Z400 ohne Xeon ist an sich von der Hardware ein normaler PC.
Wenn jemand den Xeon als Server-CPU bezeichnet hat er aber irgendwo auch wieder recht und dass ist der Punkt wie ich eine Workstation definieren würde. Ein PC der auf Hardware und Technologie aus dem Server-Bereich basiert. Wie ein Server soll eine Workstation hohe Performance liefern, über lange Zeit zuverlässig und stabil laufen. Sollte es zu einem Ausfall kommen, kostet jede Minute, die die Maschine nicht läuft bares Geld, weil es nicht einfach einen Ersatz gibt. Die Workstation muss also gut wartbar sein. Was bedeutet, dass Hardwarekonmponenten mit wenigen Handgriffen ausgetauscht werden kann.
Stabil wird das System durch hochwertige Komponenten und Hardware die extra Zertifizierte Treiber liefert und Fehlerkorrekturen wie ECC unterstützt.
Wenn ein PC so etwas alles erfüllt ist es eine Workstation. Wenn man einen Server nimmt und daran wie mit einem PC arbeitet, ist es auch eine Workstation.
Wenn man also einen Rechner mit Xeon-CPU vor sich hat, muss es nicht unbedingt ein Server sein und wenn man sich einen guten PC zusammen bauen will, sollte man auch mal überlegen ob die Vorteile einer Xeon-CPU nicht auch dort für sich von Vorteil wären.
Mein neustes Projekt ist heute Abend gestartet. Es geht um ein Framework, dass SMS empfangen kann und diese dann anhand verschiedener Regeln wie Absender, Empfänger oder Inhalt an ein oder auch mehrere externe Systeme weiterleiten kann.
Diese Weiterleitung an andere System geschieht über Plugins, die auch dann die Daten aus der SMS aufbereiten sollen, so dass sie vom externen System verarbeitet werden können.
Einfache Plugins wie "in eine DB" schreiben, an einen REST-Service oder meine MessageDriven Bean schicken, werden direkt dann mitgeliefert.
Das Empfangen und Senden von einer SMS mit Java habe ich schon letzten Monat erfolgreich getestet, deswegen glaube ich, dass ich relativ schnell zu ersten Ergebnissen kommen werden. In den nächsten 2 Monaten hätte ich gerne den ersten brauchbaren Prototypen.
Windows NT war ja nie auf Intel-CPUs beschränkt. Auch wenn viele Plattformen nur in den Anfangen bis WinNT 4.0 unterstützt wurden und nur die Alpha-Plattform hätte fast noch Windows 2000 erhalten.
Wobei in Deutschland neben den X86 und x86-64 Versionen eigentlich nur die PowerPC-Version (XBox 360) und die Alpha-Version von Bedeutung war, weil wirklich ein PC mit Alpha CPU und WinNT 4.0 im normalen Handel (Vobis) auftauchte.
Gut die ARM-Version für die kleinen Surfaces und Smartphones lief in Deutschland auch ganz gut, aber zum wirklichen Arbeiten musste man auch hier zu einem Surface Pro mit Intel CPU greifen.
Das Problem ist und war, dass es zu viele native Programme gibt, die nur für
eine CPU-Plattform kompiliert wurden und werden. Die Windows Universal App Plattform hat zu wenig Verbreitung und Java für Desktop-Anwendungen... naja.. der Zug ist meiner Meinung nach schon lange abgefahren.
Die Alpha-Plattform hatte hier den Vorteil, dass hier ein Win32 Emulator mitgeliefert wurde, der alle möglichen Windows Programme wie Office und so direkt ausführen konnte und dass wohl auch in einer wirklich guten Geschwindigkeit.
Im Endanwenderbereich gibt es momentan neben x86 und x86-64 nur noch ARM. Alles andere spielt kaum eine Rolle oder wird in eher speziellen Anwendungsgebieten eingesetzt, wo ein Windows nicht wirklich benötigt wird oder auch sinnvoll wäre.
Es gab schon PCs mit ARM CPUs und die waren wohl auch nicht schlecht zu den damaligen Zeiten. Es wird auch immer wieder über moderne Notebooks und PCs mit ARM-CPUs spekuliert, wobei hier nie wirklich was geschehen ist. Es gab eher Bestrebungen Aufgaben, die sonst von PCs erledigt werden, auf ARM Geräte zu verschieben.
ARM-Geräte sind meistens einfachere Tablets und Smartphones. Auf denen mit Anwendungen wie Word oder sogar Bildbearbeitungen und Videoschnitt zuarbeiten ist eigentlich kaum möglich. Eine externe Tastatur hilft, eine Maus bring schon mehr und am Ende ist das Display bei den Smartphones auf jeden Fall zu klein.
Microsoft hat Continuum entwickelt, welches das Smartphone in einen kleinen PC verwandelt, wenn man eben Monitor, Maus, Tastatur, etc an das Smartphone anschließt.
Es gibt eine Art Desktop und die Anwendungen passen sich soweit an, dass man sie besser und vor allem schneller bedienen kann.
Soweit klingt alles ganz toll. Ein Gerät, das man mobil und stationär verwenden kann und dass sich der jeweiligen Umgebung anpasst. Nintendo geht mit der Switch ja in eine ähnliche Richtung.
Aber am Ende fehlt immer irgend eine Windows-Anwendung die es nur für Intel-CPUs gibt und wegen der man dann eben doch bei PC und Smartphone bleibt.
Nun hat Microsoft einen performanten Emulator für immerhin Win32 Anwendungen entwickelt der auch ARM Geräten läuft. Damit könnte man also auf dem Smartphone, dann auch Win32 Anwendungen wie Photoshop oder kleine Spiele laufen lassen.
Das wäre dann auch ein Grund wieder bei den mobilen Geräten zu Windows zu wechseln, weil man damit dann wirklich ein kleines Notebook oder einen kleinen PC einsparen könnte und mit dem Smartphone viele Bereich abdecken könnte, die momentan nur von PCs oder den großen Tablets bedient werden können.
Es ist spannend und würde mal wieder etwas mehr Bewegung in den PC-Markt bringen.
Jetzt fehlen nur noch extrem gut skalierende CPUs und Kühllösungen, die es ermöglichen im mobilen Betrieb stromsparend und kühl zu arbeiten und im stationären oder Dockingstation-Betrieb dann viel Leistung bringen zu können.
Aber auch bei Thema kann man wohl mal auf Nintendos Switch Konsole gespannt sein.
Man kann nicht nur über die composer.json den Autoloader befüllen. Wenn man z.B. Module hat die nicht über den Composer installiert werden sondern aus einem Verzeichnis geladen werden, müsste man die Einträge per Hand vornehmen, was aber nicht wirklich ideal ist.
DVB-T wird abgeschaltet. Das ist nicht schön, weil doch viele es nutzen. Nicht dass es besonders gut funktioniert hätte oder eine gute Bildqualität geliefert hätte. Viele hatten doch eher öfters Empfangsprobleme, wenn die Wände mal stabiler waren. Aber es war doch besser als Kabel für DVB-C oder DVB-S durch die Wohnung zu verlegen. Gerade wenn man zur Miete wohnt, kann man nicht vernünftig in jeden Raum so ein Kabel legen.
DVB-T2 ist an sich keine alternative, weil hier für die privaten Sender eine monatliche Gebühr fällig wird, was
sich wohl im Jahr auf so 70 Euro aufsummieren wird. Meiner Erfahrung nach setzen die wenigstens Haushalte rein auf DVB-T und es sind zu meist nur 2. oder 3. Geräte, die keinen direkten anderen Anschluss finden, die über DVB-T betrieben werden.
Bei mir war es ein DBV-T Stick an dem PC meiner Frau, der in paar Monaten nutzlos sein würde. Ein Kabel für DVB-C oder überhaupt ein weiteres Kabel dahin zu legen ist sehr suboptimal. LAN geht über das Stromkabel und ansonsten wird für alles so weit wie möglich nur WLAN verwendet. Nur im Arbeitszimmer intern gibt es richtiges LAN mit einem Switch und vielen Kabeln.
Ich kam dann auch die Idee das TV-Signal zu streamen. Es gibt mehrere fertige Lösungen dafür, so dass ich keinen Streaming Server selbst zusammen bauen musste. Die scheinbar beste Lösung kam von AVM. Der AVM FRITZ!WLAN Repeater DVB-C kann zwei Streams liefern und integriert sich direkt in das WLAN als Repeater so dass man ihn nur an die Steckdose stecken muss das Kabel für das TV-Signal verbinden muss. Ein T-Adapter ist auch gleich dabei.
Also so einen bestellt. Die Installation ging sehr einfach. Hardware war innerhalb von 2 Minuten installiert.
Dann mit dem WLAN des Repeater verbunden und http://fritz.repeater aufgerufen.
Über das Menü kann man das Gerät dann in das vorhandene WLAN integrieren (man könnte auch ein LAN-Kabel verwenden oder ein weiteres WLAN nur damit einrichten).
Dann lief der Sendersuchlauf und kurz darauf waren alle Sender gefunden.
Dann folgte der komplexe Teil. Nämlich den Stream zu den Geräten zu bekommen. In der Senderübersicht des Gerätes kann man sich eine Senderliste als m3u-Datei erzeugen lassen und diese im VLC laden. Der listet dann alle Sender auf und man kann die jeweiligen Streams öffnen. Funktionierte gleich sehr gut und stabil. Die Qualität ist auf jeden Fall besser als DVB-T.
Im Schlafzimmer steht noch ein TV-Gerät, das zwar über DVB-C angeschlossen war, aber dort immer Aussetzer im Stream hatte während die Streams über den Amazon Fire TV Stick problemlos liefen. Apps für TV-Streams der Pro7/Sat.1 Sender gibt es, aber die ganzen anderen Sender würden fehlen. VLC für den Fire Stick kann zwar auf alle möglichen Netzwerk und NAS Freigaben zugreifen, aber nichts mit der m3u-Datei anfangen.
AVM bietet die FritzAppTV an, die aber erstmal nur über den Google Play-Store und iTunes zu bekommen ist. Aber zum Glück gibt es die APK direkt von AVM auch direkt als Download auf dieser Seite.
Jetzt muss man diese APK nur noch auf dem Fire TV Stick installieren. Das ist zum Glück auch sehr einfach. Bei den Einstellungen des Sticks die beiden Optionen in den Entwicklereinstellungen aktivieren. Dann habe ich mit Hilfe dieser Anleitung und der dort angebotenen Programme zum Download angebotenen Programme (Bei der Installation auf Addware achten! und es wird dann nur eine FTV.zip Datei "installiert") die APK auf dem Stick installiert. Die App tauchte dort direkt auf und lies sich ohne Probleme starten.
Streams laufen gut und auch hier stimmt die Bildqualität.
Damit kann DVB-T jetzt abgeschaltet werden ohne dass es uns noch irgendwie interessieren würde und als Nebeneffekt ist die Bildqualität und die Stabilität der Streams sehr viel besser geworden.
Meine meisten Email-Adressen sind ja nur Weiterleitungen. Beim Umzug meiner Domains auf meinen Server habe ich auch erst einmal alle umgezogen, die keine Email-Adressen haben. Das waren ein paar, aber dann war ich schnell bei denen mit Email-Adressen.
Damit ich nun auch hier einen sehr weichen Umzug hinbekomme, waren nun alle dran, die nur Weiterleitungen hatten.
Weiterleitungen sind mit Postfix wirklich einfach umgesetzt. Die DNS Einträge hat Netcup bei mir immer gleich schon mit eingerichtet, so dass ich dort nichts weiter machen musste.
Zu erst muss natürlich Postfix instaliert werden.
sudo apt-get install postfix
Danach einfach die Config-Datei von Postfix editieren. Die Datei findet man jeden Falls unter Ubuntu
hier:
Heute ist der neue Stick angekommen und nachdem die Software von der Herstellerseite installiert wurde, wurde er auch problemlos unter Windows 10 erkannt.
Der Stick ist ein 4G Systems XS Stick P10 und bei dem Preis kann man wohl erst einmal nicht viel falsch machen.
Um RXTXComm für Java in Eclipse verwenden zu können muss man auch die DLLs Eclipse bekannt machen.
Im Buildpath muss man die JAR finden und dann ausklappen. Bei der Native Library Location muss man Edit wählen.
Ich hatte die DLLs einfach mit im lib-Folder abgelegt.
Danach lief auch die Suche von SMSlib.
Leider funktioniert mein alter Huawei E1750 unter Windows 10 wohl nicht mehr so einfach. Ich habe mir mal den 4G Systems XS Stick P10 bestellt und hoffe, dass dieser gleich und ohne Probleme funktioniert.
Und dann mal die Beispiele zum SMS-Empfang von SMSlib testen.
Zum 10. Geburtstag meines PHP-Frameworks wird sich da viel ändern und es damit dann wieder etwas mehr zu anderen Frameworks aufschließen können.
Mein eigener Class-Loader fliegt raus und es wird noch der ClassLoader vom Composer verwendet. Meiner kann zwar auch mit PSR4 umgehen, aber nach dem Umstieg muss ich dann auch alles darauf umstellen und habe keine Ausrede mehr, weil die Kompatibilität weg fällt.
Es gibt nun ein public-Verzeichnis so dass alle Config-Dateien und Classes außerhalb des Bereiches liegen, auf dem Benutzer zugreifen können. Das sorgt für mehr Sicherheit, macht das Laden von CSS und Bildern aus dem Theme-Verzeichnis aber komplizierter. Ich überlege hier auf Assetic umzusteigen. Momentan läuft meine Lösung aber sehr gut.
Und das Beste und wichtigste was aber auch am meisten Arbeit machen wird (darum habe ich ganz viele alte Module erst einmal gelöscht und lasse auch die alten PHP-Pages drin) ist, dass Module-Pages nun wirklich mit Controller und Twig-Template gerendert werden. Die Twig-Templates könenn vom Theme und von eigenes Templates in der Instance überschrieben werden und so kann man nun endlich das Aussehen der Module leicht und schnell anpassen.
Smarty war schon länger drin, wurde aber nie benutzt und ist jetzt raus geflogen.
Mein erstes Projekt damit wird sein, die Zeiterfassung für Kunden-Projekte neu zu schreiben und für alle brauchbar zu machen. Das wird wohl am Ende nur 1-2 Tage dauern. Also nichts im Vergleich zum Umbau des Frameworks.
Das King Pigeon RTU5023 ist ein Gerät zum Messen von Temperatur und Luftfeuchtigkeit. Der Vorteil ist, dass das Gerät diese Messungen dann auch über das Handy-Netz (Quad-Band) per SMS verschicken kann. Mit dem sehr stabilen Gehäuse und dem Anschluss für den Senor kann man damit also ohne Probleme Transporte mit LKWs oder Zügen von einem Standort aus überwachen. Mit einer SMS-Flat entstehen auch kaum zusätzliche Kosten. Die SIM-Karte darf keinen PIN haben, da man an dem Gerät keine PIN eingeben kann und die Programmierung rein über Commands erfolgt, die man dem Gerät per SMS schickt. Antworten tut das Gerät auch über SMS.
Ich habe das Gerät von der Switch GmbH bekommen, um mal heraus zu finden wie es funktioniert und wie man es in vorhandene Systeme integrieren kann.
Das Problem ist, erst einmal etwas über das Gerät heraus zu finden. Bei chinesischen Geräten ist das ja immer das Problem, dass man zwar viele Seiten findet wo man das Gerät kaufen kann, aber kaum Seiten vom Hersteller oder mit Anleitungen. Das ist auch hier so. Die Infos zu den SMS Commands ist schwer zu finden und auch nicht gerade übersichtlich oder gut erklärt.
ABER es gibt einen Vorteil und dieser ist die Android-App im Google Play-Store. Diese macht an sich nichts andere als Eingaben in die App per SMS zu verschicken. Antworten kommen per SMS und werden dort wieder eingetragen.
Also einfach das Gerät anschließen und die App installieren. Als erstes muss man das Gerät anmelden. Nummer eingeben, das default Passwort ist 1234 und den Rest nach belieben ausfüllen und speichern.
Ich wurde erst einmal mit SMS voll gespamt. Meistens dass die Report-Time auf 999 stehen würde. Also diese erst einmal auf 1h gestellt und schon hörte es auf. Man kann sich stündlich Reports der Messungen zusenden lassen oder Alarm SMS, falls die Tempartur- oder Luftfeuchtigkeit-Range über oder unter schritten wird.
Das Tolle ist, dass die SMS natürlich auch einfach im Handy vorliegen. Da kann man dann anhand der Zuordnungen von Befehl und Antwort sich die meistens Commands einfach so erarbeiten.
1234DT001
Das setzt die Report-Time auf 1h.
Als nächstes geht es nun darum SMS zu empfangen und deren Inhalt auszuwerten. Davon ist wohl das Empfangen das Problem, wobei ich noch einen UMTS-Stick rumliegen habe und es da wohl entsprechende Java-Libs gibt.
Damit kann man sich dann ein SMS-Gate bauen und die eingehenden SMS parsen und weiterleiten. Aber das kommt dann nächste Woche.
Eine der Eigenschaften des Microsoft Surface Pro 4 mit Core m3 CPU ist der doch sehr geringe Speicher in Form einer 128GB SSD. Im Vergleich zu den Speichergrößen von Android Tablet ist 128GB schon wirklich groß und scheint erst einmal ausreichend.
Der Unterschied zu einem Android-Tablet ist aber, dass man mit dem Surface richtig arbeitet und entsprechend viele und auch komplexe Programme installiert. Allein die Grundaustattung mit XAMP, Java, IDE, GITKraken und vielen kleinen Tools spreng leicht den Rahmen an dem was auf einem Android Tablet vom Benutzer an Daten und Apps zu finden ist. Beim Surface kommen dann noch die Daten des Benutzers hinzu.
Mit paar Bildern in RAW+JPEG und paar MP4s in FullHD von der DSLR wäre der noch freie Speicher der 128GB sehr schnell voll. Musik, Videos, ISOs oder VMs sind zu viel für die 128GB.
Zum Glück kann man eine Micro SD-Karte nachrüsten. Die Geschwindigkeit einer normalen SD-Karte ist natürlich nicht vergleichbar mit der SSD, aber für einfaches ablegen von Daten reicht eine einfache SD-Karte. Für etwas über 10 Euro bekommt man 64GB. Für mehr Geld würde man auch eine schnelle 128GB Karte bekommen, die dann auch schnell genug sind, um mal ein portables Programm darauf ablegen zu können ohne ewig lange Ladezeiten riskieren zu müssen.