SELECT
table_schema as `Database`,
table_name AS `Table`,
round(((data_length + index_length) / 1024 / 1024), 2) `Size in MB`
FROM information_schema.TABLES
ORDER BY (data_length + index_length) DESC;
Wichtig ist sich aber im Klaren zu sein, dass diese Größen sich rein auf die Daten in der DB beziehen und durch Meta-Daten und Query-Logs die Gesamtgröße auf der Festplatte größer sein kein.
Ich hatte lange Zeit ja ein Postfix mit Dovecot laufen. Hat an sich gut funktioniert, aber es kam viel Spam durch und die Konfiguration und Erweiterung um Spamfilter war kompliziert und umständlich. Ich wollte einfach etwas was ich starten kann, meine Domains und Postfacher eintragen kann und dann alles läuft. Denn wenn es schon so viele Anleitungen gibt, hat doch sicher so etwas schon fertig als Docker-Image haben.
Am Ende bin ich bei poste.io gelandet. Dass kann man einfach mit einigen Angaben starten und es läuft dann einfach. Schnell und stabil, wie es sich wünscht. Man kann ganz einfach Weiterleitungen und eigene Postfächer für alle seine Domains anlegen und kann auch direkt mit Roundcube einen kleinen Webmailer-Service bauen. Das habe ich aber nicht gemacht.
Auf habe ich es nicht zusammen mit Traefik laufen, sondern allein auf eigenen Ports. Es soll eben allein für mich meine Weiterleitungen erledigen und dabei nicht so Spam-empfindlich sein.
Dazu kann ich sagen, dass der Spam-Filter wirklich gut funktioniert.
Ich hatte viel rumprobiert und bin mit diesem Start-Script ganz zufrieden:
Es wird mal Zeit sich der Zukunft zu zuwenden und nicht mehr in der Vergangenheit zu leben. Deswegen werde ich endlich mal alle meine Seiten und Projekte in Docker-Container verfrachten und mit Traefik meinen Server neu strukturieren. Deswegen kann es im Dezember bei meinem Blog und MP4toGIF.com zu längeren Downzeiten im Dezember kommen. Ich überlege auch einen günstigen zweiten Server nur für Emails zu nehmen.
Das ganze sollte mir dann auch die Möglichkeiten geben spontan mal andere Dienste zu deployen. Im Kopf habe ich da so:
* Passbolt (als Ersatz für KeePasssXC)
* nextCloud um von OneDrive weg zu kommen
* und vielleicht Satis um meine PHP-Libs zu bündeln
Ich hoffe mal, dass alles ganz einfach und super funktioniert :-)
Oft will man ja beim Speichern von Dateien flexibel bleiben. Beim Entwickeln lokal speichern, im Produktivsystem in S3 und auf einem alten Test-System vielleicht noch auf einem FTP-Server oder in Redis.
Jeder hat schon mal so was geschrieben um wenigstens das native Filesystem und FTP zu abstrahieren, weil der FTP-Server nur vom produktiven System aus zu erreichen war oder so. Mein PHP Framework hat auch solche Klassen. Aber ich hatte keine Lust mehr diese noch mal anzupassen und eine brauchbare Struktur mit Factory und Interfaces dort endlich mal zu implementieren... was die Klassen (2006 geschrieben) an sich dringend nötig hätten.
Deswegen habe ich mich einige Sekunden im Internet umgeguckt und Flysystem gefunden. Das kann natives FS, FTP, S3, Redis, OneDrive, Azure File Storage.... also alles was man so braucht.
Ich habe es mal mit S3 getestet. Natürlich müsste man sich erst einmal eine brauchbare Factory schreiben, aber da kann man sicher in seinem System auf die alten Strukturen zurück greifen und muss dann nicht alles umbauen, wenn man auf Flysystem wechselt.
Eine QNAP TurboStation 120 hat neben der fehlenden Virtualisierung und dem fehlenden Domain Controller nur ein Problem: Es passt nur eine Festplatte rein.
Aber im Gegensatz zu vielen anderen NAS-Systemen hat die TS120 sowohl USB 3.0 als auch einen eSATA-Anschluss. Ich wollte also mal wissen wie kostengünstig ich mein NAS mit einer doch nicht ganz so großen 600GB-Festplatte um Speicher erweitern kann.
Ich habe dann die Festplatte im laufenden Betrieb angeschlossen und mich in der WebUI angemeldet. Die Festplatte wurde sofort erkannt.
Ich konnte sie direkt als Freigabe-Ordner für andere Benutzer konfigurieren.
Und auch unter Windows war die Festplatte sofort zu finden.
Alles sehr einfach und funktioniert super. Man könnte also auch einfach ein 4x eSATA-Gehäuse mit 4x 2GB da ran hängen. Wobei mir die Idee das NAS und den Speicher zu trennen an sich auch ganz gut gefällt.
Ich und NAS war immer ein schwieriges Thema. Eines von Buffalo mit 1TB Festplatte war mir viel zu laut. Ich habe die Festplatte dann in meinen PC eingebaut und den Rest des NAS entsorgt. Die NAS-Funktion der Fritzbox war ganz nett aber ich wollte keine Festplatte unter dem Schrank im Wohnzimmer haben. In der Wohnung war leider der Telefonanschluss nicht mit Arbeitszimmer und unter dem Bücherschrank war es immer extrem staubig. Also es dann mit dem Haus begann und ich die Idee hatte mit IP-Kameras den Gartenbereich zu überwachen, wurde das Thema NAS wieder aktuell. Ich hatte mir da verschiedene Lösungen überlegt:
- Billiger 19" Server
- Billiger HP Micro-Server
- ein NAS
- ein Rasberry Pi mit USB-Festplatte
Ich bestellte mir ein günstiges NAS aus China. Dieses mal eines, wo die Festplatte austauschbar war und das etwas mehr nach einem NAS aussah. Die UI war auch sehr viel besser als bei dem Buffalo NAS. Aber es war wirklich sehr laut (allein der Lüfter) und so wirklich toll fühlte es auch nicht an. Man merkte einfach den Preis und Updates und Patches konnte man da auch nicht erwarten.
Gehen wir ein paar Jahre zurück. Ich weiß nicht mehr wie ich darauf gekommen bin, aber irgendwann fand ich heraus, dass man bestimmte QNAP NAS als VM-Hosts verwenden konnte. Diese waren nicht günstig, aber brauchten an sich alles mit was eine kleine Firma brauchte.
Vor so 4 Jahren kam es dann dazu, dass ich um Hilfe bei einer kleineren Firma gebieten wurde. Da schien ein QNAP-NAS perfekt zu passen. Die brauchten eben nur zentralen Speicher und Dinge wie eine zentrale Groupware, die nicht in der Cloud lief (wegen Datenschutzbedenken). Verbindung per VPN, um auf die Groupware zugreifen zu können, wäre nicht wirklich das Problem gewesen.
Damals hätte so ein NAS ca. 2000 Euro gekostet, das genug Festplatten- und Arbeitsspeicher für den Zweck gehabt hätte. Das war dann für die kleine Firma zu viel.
Dezember 2017. 10 PCs ein Server. Domain-Controller. Zentraler Speicher. Zuerst dachte ich man könnte eine VM mit Samba als Domain-Controller nutzen und auf so einem NAS laufen lassen, bis ich heraus fand, dass diese Größe von NAS's sogar einen entsprechenden Service schon mit brachte. Die Preise waren auch in der Zeit stark gefallen. Ein passendes NAS mit 2x 3GB und 4GB RAM kostete gerade mal etwas über 600 Euro. Bezahlbar und alles in einem.
Auch ganz praktisch an einer QNAP TS-253A ist auch die Größe, die ohne Probleme auf dem Boden eines 19" Schranks platz findet. USB 3.0, 2x 1GBit LAN, RAID.. Microphone-Anschlüsse für Karaoke (ohne wäre teurer gewesen).
Das NAS wurde gekauft und ich hatte endlich mal die Möglichkeit mit so einem System zu arbeiten. Fazit: Toll! UI ist super zu bedienen. Es ist leise und schnell. Netzwerkfreigaben
funktionieren natürlich sofort und problemlos. Der Domain-Controller funktionierte auch sofort, wobei ich etwas mit den Logon-Scripten zu kämpfen hatte bis die liefen. Man durfte kein ".bat" hinter schreiben. Der Rest ist wirklich einfach. Eine Domain anlegen, einen Domain-Admin anlegen ,paar Benutzer und es kann los gehen. PC mit Hilfe des Admin-Kontos in die Domain aufnehmen. Neustart und sich mit einem der Benutzer anmelden. Läuft und bringt kleinen Firmen sehr viel mehr Kontrolle (als PCs wo jeder als Admin drauf arbeitet).
Das Geld für eine TS-253A wollte ich privat dann doch nicht ausgeben. Aber es gibt günstigere gebrauchte NAS von QNAP wie die TS-120. Dieses hat nur einen HDD-Slot und einen 1GBit LAN-Anschluss. Aber auch USB 3.0 und sogar E-SATA. Als CPU ist eine ARM-CPU und keine x86 von Intel verbaut. Deswegen hat es wohl auch keine VM-Host Funktion, wobei es auch beim RAM eng werden würde. Leider fehlt da auch der Domain-Controller, den ich sonst doch gerne gehabt hätte.
Wenn man sich aber mal durch die Funktionen und Zusatzdienste der dort installierten QTS-Version klickt, merkt man schnell, dass QNAP ein NAS auch eher als sehr kompakten Server sieht, als eine Festplatte mit LAN-Anschluss. QTS ist dabei ein wirkliches tolles System, dass schnell ist und trotz den ganzen Funktionen auch für denen übersichtlich erscheint, der vorher noch nie mit QTS zu tun hatte.
Auf dem Startbildschirm sind schon verschiedene Dienste wie ein eigens kleines Cloud-Storage-System zu sehen.
Ich zeige hier mein paar Dienste, die wirklich praktisch sein können (ich aber auch nicht nicht wirklich verwendet habe). Wie oben schon erwähnt, fehlt mir etwas der Domain-Controller.
Eine ActiveDirector/Domain Integration als Client ist aber möglich, so dass man die Benutzer einer Windows Domain direkt im NAS nutzen kann und nicht alles doppelt pflegen muss. Aber es gibt auch einen LDAP-Server. Wie weit man damit kommt, habe ich noch nicht getestet, werde ich aber in den nächsten Monaten wohl mal ausprobieren.
Wenn man eine einfache Groupware oder ein Wiki im Intranet laufen lassen möchte, braucht man an sich auch keine VMs. Denn das NAS bringt einen WebServer (sieht wie ein Apache aus), einen MySQL-Server und PHP mit. Ein Media-Wiki kann man auch sich direkt so als "App" installieren. Der Fall von vor 4 Jahren hätte sich also auch so lösen lassen ohne VM.
Wer eine Java-Lösung einer PHP-Lösung vorzieht hat Glück, denn es kann sogar ein Tomcat installiert werden. Es fehlt node.js, aber mit Apache + PHP und Tomcat sollte 90% aller Webanwendungen darauf laufen lassen können.
Performance... da würde ich nicht zu viel erwarten, aber sicher ist es für eine Firma mit so 10-15 Mitarbeitern, die dort Emails (Roundcube) checken und ihre Termine und Aufgaben verwalten ausreichend schnell. Mit DynDNS/fester IP und Port-Forwarding oder VPN, hat man eine kleine unbahängige Lösung. Ein VServer zu mieten ist aber da doch vielleicht die bessere Lösung, wenn man von extern Zugreifen möchte und keine wiederkehrenden Probleme mit Verbindungsausfällen der Internetverbindung hat.
Wegen den IP-Kameras überlege ich nochmal zu prüfen, ob die nicht die vom NAS mitgelieferte Lösung verwenden sollte. Ich müsste nochmal prüfen ob meine Kamera damit kompatibel ist und wie teuer kompatible Lösungen sind. Weil direkt die Kamera über das NAS steuern zu können ist natürlich sehr viel schöner, als nur eine Kamera per FTP Bilder und Videos auf einem NAS ablegen zu lassen. Da wäre wohl keine Lösung mit dabei Videos die älter als 1 Woche sind automatisch löschen zu lassen und ähnliches.
Auch wollte ich noch mal Testen, ob ich eine Festplatte einfach per E-SATA anschließen kann und diese wie die interne dann verwaltet wird. Eine externe für Backups wäre nett, aber ich hätte doch gerne die Option mehr Festplatten nachrüsten zu können. QNAP bietet hier leider keine Erweiterungen an wie beim TS-253A an.
Am Ende ist QNAP zwar teurer als einfache NAS-Systeme, bietet aber auch ein sehr stabiles System mit vielen Funktionen und kann in kleineren Firmen ohne Probleme einen klassischen Server ersetzen. Ein klassischer Server wäre dabei zu meist auch teurer. Die Geräte ab 300 Euro (nur das Gehäuse) bieten schon wirklich und sind ihr Geld meinen kleinen Erfahrungen nach auch wert.
Leute die viel mit Video-Streaming arbeiten, sollten sich bestimmte Funktionen wie
DJ2 live mal ansehen. Bei Karaoke im kleinen Stil sollte man aber vielleicht doch erst einmal bei UltraStar bleiben.
Ich hatte mal vor längerer Zeit einen Blog-Post darüber gesprochen, dass IT nicht bei Ebay wächst. Also über Firmen, die ihre IT Ausstattung oder was sie so nennen, sich Stückchenweise bei Ebay und so zusammen kaufen und einen wilden Wuchs verschiedenster PCs und Notebooks mit genau so vielen verschiedenen Problemen schaffen.
Das Verlockende an diesem Vorgehen ist einfach der Preis und damit ein gedachter schneller RoI. Nur leider stimmt dieses so einfach nicht. Verschiedene Systeme haben verschiedene Probleme und brauchen verschiedene Lösungen. Die langzeit Administrationkosten sind also sehr hoch und drücken sehr auf den RoI. Oft wären der RoI schneller und höher bei neuen Systemen, die man bei z. B. bei Dell, HP, Fujitsu oder Lenovo in den benötigten Stückzahlen kaufen kann.
Aber es gibt eine 3. Methode, die eher der 2. genannten entspricht, aber auf Preisen der ersten basiert. Refurbished Systeme kaufen. Refurbished Systeme kommen zu meiste aus alten Firmenbeständen. Wenn eine Firma 200 Arbeitsplatz-PCs austauscht, weil der Hersteller nach 5-6 Jahren keinen bezahlbaren Support und Ersatzteile/Austauschgeräte mehr bietet, holt man sich gerne eine externe Firma, die die PCs einen abkauft, wieder in Schuss bringt und dann selbst weiter verkauft. Stückzahlen, Garantie und schon die richtige Art von Systemen für einen sehr günstigen Preis.
Bei dem Preis kauft man sich einfach 10% mehr als benötigt und spart sich teure Support-Verträge.
Konkret ging es bei mir um eine Anfrage, wie man ~12 Arbeitsplätze erneuern könnte. Es gab verschiedene Angebote und ich sollte auch noch mal was raus suchen. Anforderung war, dass sie schneller als die alten sein sollten. Das übersetzt man dann in: leicht administrierbar, alle gleich, solide Hardware, ausreichend Anschlüsse. Da ist das auch Freelance-Ebene neben meinem Job mache, habe ich dabei auch die Freiheit günstig zu sein, auch wenn ich versuche nicht denen, die davon leben, die Preise kaputt zu machen.
Ich hab einen einfachen Office-PC rausgesucht. Ein i5 ist mehr als ausreichend schnell. Denn was machen die Leute im Büro? 80% der Anwendungen sind Cloud-Anwendungen, die im Firefox laufen. Was in Word schreiben. Die Hardcore-Anwender verwenden sogar mal Excel (teilweise für Todo-Listen). PDFs ansehen, Drucken, Scannen (damals noch über SMB-Freigaben *urgs*).. das war es. Ich wurde gewarnt, dass viele ja so viele Daten hätten 10GB-500GB an Daten und die 320GB HDD würde ja nie reichen. Wenn man aber die 600MB Druckertreiber, 150MB Openoffice Installer, etc einmal weg gerechnet hatte blieben meist so 1GB-5GB übrig. Der Arbeitsplatz der Grafikdesignerin war eine eigene kleine ungeplante Baustelle.
Viel konnte man sparen, in dem man die Scans nur noch über Email laufen lies. Weil dann ist alles im Postfach zu finden, was man mal gescannt hat und man findet es dort auch wieder, falls mal die Kopie von der Festplatte verloren geht (defekter PC oder so).
Also i5, 8GB RAM, 320GB HDD und , das war mir wichtig, 2 Displayports. Keiner der dort verwendeten Monitore war mit Displayport angeschlossen, ABER der Wildwuchs an HDMI, DVI und VGA Monitoren, Adaptern und Kabel war zu undurchsichtig um alles irgendwie geordnet aud 1x HDMI, 1x DVI, 1x VGA auszuteilen. An Displayport kann man alles gut und einfach adaptieren und die Adapter sind günstig. Also lieber 8x DP auf HDMI und 6x DP auf DVI ADapter kaufen und sich den Stress mit Kabel und Monitore sortieren und hin und her tauschen sparen.
Etwas was man auch nicht unterschätzen sollte, ist die Stapelbarkeit der PCs. Wenn man die alten einlagert oder neue vorbereitet für den späteren Einsatz, ist man glücklich im Lagerraum nur wenig Platz zu benötigen. Da sind diese Office-PCs auch fast unschlagbar (nur die Kiste für die Netzteile ist nicht ganz optimal).
Das sind dann ca 280 Euro für einen neuen Arbeitsplatz und es können mit Tesafilm zusammen gehaltene PCs ausgetauscht werden :-)
Was neu gekauft wurde, sind die Adapter, ein QNAP NAS (als allgemeiner SMB-Server und Domain-Controller.. was echt super funktioniert), sowie eine Fritzbox. Die Fritzbox ersetzte eine Telekom Digitialisierungbox Business.
Beim Router war der RoI auschlag gebend. Remote-Access, VPN und alles schnell und einfach. Der Preis für die Fritzbox war schon in den 30min wieder drin, die ich damit brauchte alles einzurichten, wobei ich bei der Box 4-5h lang gescheitert bin. Ok.. mir fehlte die Erfahrung mit der Box, aber wenn man die TK-Anlagen Funktion der Box nicht nutzt, ist es kein Verlust und spart direkt Geld (Fallback Lösungen sind auch schnell in 10min umgesetzt).
Selbst die Fritzbox hätte man gut gebraucht kaufen können, wenn man die Zeit gehabt hätte. Bei QNAP Geräten sind die Auswahl und die Preise bei Refurbished Geräten so schlecht, dass neu kaufen genau so gut ist.
Bei anderen Herstellern ist es leider nicht besser (Domain-Controller Funktion lässt leider wenig Auswahl!)
Noch mal zum Grafik-Arbeitsplatz. Momentan ist der Arbeitsplatz nur mit einem Notebook (i7, 16GB, etc) ausgerüstet und soll zu einem Arbeitsplatz mit einer echten Workstation + dem Notebook + VPN-Zugang werden. Der Printserver für den Plotter entpuppte sich als Xeon CAD-Workstation (E3, 16GB, Quadro 4000er, 256GB M.2 SSD). Dafür habe ich eine refurbished 2TB HDD gekauft (ich liebe Shops wo ich 3h nach Bestellung alles einfach direkt abholen kann).
Die Daten für die Workstation und das Notebook sollen auf dem NAS gelagert sein, dass über VPN dann erreichbar ist.
Am Ende war es eine gute Entscheidung das meiste gebraucht oder wenigstens günstig zu kaufen. Beim NAS sind neue Festplatten gut, aber das Gehäuse hätte man genau so gut gebraucht kaufen können. Für Festplatten und SSDs die nicht 24h/7d laufen reichen auch oft refurbished Komponenten, die zumeist aus Demo-Systemen stammen oder bei Aufrüstungen übrigblieben.
Ich habe erst gestern eine 300GB SSD verbaut, um einen PC noch mal etwas mehr schnellen Speicher zu geben. Günstig, funktioniert... da am Ende nur viel davon gelesen wird (da kommt der Steam-Ordner drauf) hält die auch lange. Auch als unempfindliche externe Festplatte sind günstige SSDs echt super. Sie sind sehr viel schneller als USB-Sticks und halten auch mal Stöße sowie Stürze aus, weil keine mechanischen Komponenten verbaut sind. Ein gutes 2,5 USB 3.0 Gehäuse gibt es für 8 Euro.
Seine IT auf refurbished Geräten aufbauen zu lassen ist also ohne Probleme möglich und für kleine Firmen, die nicht viel Geld investieren und auch das schnell wieder drin haben wollen, eine sehr gute Alternative zu Verträgen mit Dell, HP, etc.
Es begab sich gestern Abend, dass meine Frau gerne einen neuen PC haben wollte und diesmal auch gerne etwas modernes. Ich persönlich neige ja oft dazu die schon getragenen Sachen der letzten 4-5 Jahre noch mal neu aufzutragen, weil die eben günstig sind und meistens noch genug leisten, um alle Aufgaben gut bis sehr gut zu erledigen.
Mit dem Ryzen und dem Threadripper sind jetzt aber doch wieder CPUs am Markt, die wirklich gut und auch dabei durch aus bezahlbar sind.
Ein Threadripper ist trotzdem noch sehr teuer und oft braucht man diese Leistung und Anzahl an Kernen auch gar nicht. Aber es er stand zur Diskussion.
Und wie es nun mal ist, wenn man ein PC zusammenstellt, wurde die Zusammenstellung mit anderen Personen diskutiert. Als Alternative zum Threadripper nannte ich dann einen Xeon Silver mit 12 Kernen für einen leicht höheren Preis wie der Threadripper. Als Antwort kam:
Das ist eine Server-CPU, sie ist ......
Das habe ich schon so oft gehört. Aber am Ende wird es nicht wahrer, nur weil viele Leute es immer wieder herunter beten. Das kommt aber auch hauptsächlich von Leuten, die ihrer PCs noch selbst zusammen bauen und damit Komplett-Systemen so wie so so entgegen treten, dass der Hersteller da Unsinn zusammen gebaut hat. Mit dieser Aussage hebt man sich also auch über Hersteller wie HP, Lenovo, Dell, etc (wie Apple) die noch echte Workstations bauen und eben auch für entsprechende Preise an bieten (wie gerade die HP Z8).
So ein System kostet in einem besseren Ausbau gerne mal schnell 6.000-8.000 Euro und es kann noch weiter hoch gehen.
Aber wer glaubt nur Idioten, die sich ja nicht mit PCs auskennen, würden solche Systeme kaufen, liegt wohl komplet daneben. Es geht um zertifizierte Treiber und Systeme, für die Software Hersteller eine Funktionsfähigkeit ihrer Produkte Garantieren.
Solche Systeme mit Medion oder MediaMarkt Systemen zu vergleichen ist einfach realitätsfremd. Niemand der meint im Internet surfen und Emails schreiben zu wollen, würde sich eine HP Z8 kaufen. Deswegen ist auch die Annahme vieler, die Leute bei z.B. HP hätten keine Ahnung und hätten deswegen falsche CPUs verbaut, mehr als überheblich und seltsam, denn wer ein Mainboard konstruieren kann (es sind keine Komponenten von der Stange dort verbaut), wird wohl genug Fachwissen haben auch die passende CPU zu wählen.
Xeon wurden seit ihrer ersten Version (noch im Module für den Slot 2) in Workstations verwendet. Damals gab es sogar noch 4x CPU Workstation wie z.B. SGI VW 540. Die Nutzung in Workstations ist seit dem auch nicht abgebrochen, auch wenn gerne mal i7 in den kleineren Workstation Versionen verbaut werden. Aber es war nie so, dass Xeon ausschließlich für Server gebaut oder vermarktet wurden. Auch deren Feature-Set zeigt, dass zwar Server ein primäres Einsatzgebiet für Xeons sind, aber auch Workstations genau so wichtig sind. Außerdem unterscheiden sich die Anforderungen heut zu tage kaum noch zwischen Server und Desktop. Früher waren Server Multithreaded und Desktop-Anwendungen weniger.. heute ist alles so weit wie es geht Multithreaded.
Eine Ausnahme ist wohl die E7 Serie für Quad und Octa Systeme. So ein System ist aber auch nicht praktikabel als Desktop zu realisieren. Aber auch hier skaliert man heute lieber horizontal als vertikal und kauft dann lieber ein weiteres E5-System und lässt beide im Cluster laufen. Da sowie so meistens mehrere VMs darauf laufen, ist es auch egal ob diese auf dem selben Server laufen oder auf zwei Maschinen, was sogar die Ausfallgefahr reduziert.
Aber wäre weiterhin glauben will, man könne Xeons nur in Servern verbauen, beraubt sich selbst einer oft guten und manchmal auch kostengünstigen Alternative zu den Highend-Desktop CPUs wie ddem i7 oder i9. Besonders wenn man wirklich viele Dinge gleichzeitig macht, sind 2 CPUs oft besser und einfacher zu kühlen als eine einzige extrem hoch gezüchtete CPU.
Wer wirklich fast rein auf Serverbetrieb ausgelegt CPUs sehen möchte muss sich Sparc ansehen. Selbst für die Power-CPU von IBM gibt es Workstations.
Da es nicht gerade eine tolle Lösung ist, alle paar Tage die Let's Encrypt Zertifikate per Hand zu aktualisieren, sollte man sich einen Cron-Job erstellen.
Per Hand kann man hier mit alle Zertifikate aktualisieren, die bald ablaufen werden:
sudo letsencrypt renew
Den Cronjob kann auch ganz einfach anlegen.
sudo crontab -e
Und dann den Eintrag hinzufügen. Ich hab es mit vim gemacht.
Also mit den Pfeiltasten ans Ende der Datei. i drücken.
Wer sich einmal aus versehen in den vi verirrt hatte, weiß wie verwirrend dieser Text-Editor für die Befehlszeile sein kann. Die meisten nutzen vi meistens nur für einen Zweck.. das Bearbeiten von Config-Dateien auf einem Server über eine SSH-Session oder schnelle Anpassungen an Dateien, wenn man Dinge auf der lokalen Dev-Workstation nicht nachvollziehen kann. Dazu reichen zumeist Datei öffnen, Datei bearbeiten, Datei speichern und vi wieder verlassen.
Öffnen ist ganz einfach:
vi file.conf
Dann öffnet sich der vi und man kann über die Pfeil-Tasten schon mal die Position wechseln.
wenn man nun schreiben möchte drückt man i für insert-mode.
Nun nimmt man seine Änderungen vor.
Mit ESC wechselt man zurück in den Command-mode. Speichern geht über :w für write.
Danach kann man entweder mit i weiter bearbeiten oder gibt :q für quit ein.
An sich eine sehr logische Bedienung aus dem insert-mode und dem command-mode zwischen denen man hin und her schalten kann.
In letzter Zeit scheint der Begriff Workstation wieder mal öfters aufzutreten. Gefühlt war dieser lange Zeit eigentlich Tod und Hersteller die auch auch als Hersteller von Workstations verstehen schienen auch zu verschwinden. Gefühlt ging es einher mit dem Verschwinden der RISC-Workstations und dem Aufkommen der Multi-Core CPUs im x86 und x86-64 Bereich. Viele die erst in den letzten 10 Jahren mit der professionellen IT zu tun hatten, kennen den Begriff Workstation oft nicht mal. Wenn sie hören, dass man Xeon-CPUs und keinen i3/i5/i7 verwendet hört man dann meist nur: "Ach, dass sind ja auch Server-CPUs...", was an sich aber falsch ist da Intel bis auf die E7 (vorher Xeon-7000) an sich nie CPUs gebaut hat, die rein für Server gedacht waren. Auch beim Itanium gab es Workstations und nicht nur HPC-Maschinen.
Aber was unterscheidet eine Workstation von einem normalen Desktop-PC? Wie erklärt man was eine Workstation anders macht als einen PC? Personen die noch mit Herstellern wie Sun, SGI oder DEC aufgewachsen sind, wissen einfach was eine Workstation ist. Es ist zwar eher ein Gefühl als etwas konkretes, aber man weiß dass es eine Workstation ist und dass sie scheiße teuer sein wird.
Früher (also Mitte bis Ende der 80er) gab es die 3M-Regel um eine Workstation zu definieren (passte aber auch nicht immer). Diese Regel besagt, dass alles was 1MB RAM, 1MIPS Rechenleistung und ein Display mit 1 Megapixel hat, als Workstation gelten kann.
Somit galten auch Rechner wie der Amiga 3000 und der Atari TT als Workstations. Für diese gab es jeweils ein entsprechendes Unix-Derivat. Damals gab es aber auch sowie so noch sehr viel mehr Unterscheidungen, denn es gab Homecomputer (C64, Atari ST, Amiga) und PCs (IBM PC-kompatibel und IBM PS/2 gehörten dazu), zusätzlich noch Workstations, Server (umgerüstete PCs, meist nur mit einer großen Festplatte ausgerüstet), Mini-Computer (das was jetzt ein Server ist nur etwas größer), Mainframes, Super-Computer, und noch ein paar Dinge mehr zum Terminal-Arbeitsplätze.
Schon in den 80er gab es Versuche mit Intel 386er CPUs und Workstations. Ein Beispiel ist die Sun386i, aber wirklich durchsetzen konnte sich das Konzept nicht. Anfang bis Mitte der 90er änderte Sich aber vieles. Die Homecomputer starben aus und mit ihnen auch Firmen wie Atari und Commodore. Apple hatte große Probleme und IBM suchte verzweifelt nach einem System, dass man nicht so einfach kombinieren konnte. Neue Bus-Systeme wie EISA und MCA brachten dann PCs und Workstations immer weiter zusammen. Der PowerPC wurde in IBM-Workstations und Server verwendet, fand aber auch schnell bei Apple breite Verwendung.
Und langsam begann Technologie aus dem RISC- und Workstation-Bereich in den PC-Bereich rüber zu schwappen. Mit dem Pentium wurde dann der PC auch von der Leistung her Konkurrenzfähig. Einer der ersten Hersteller von x86-Workstations war Intergraph. Deren Grafiklösungen fand man sonst eher in Alpha-Workstations von DEC, aber es gab auch Ausführungen für x86-Systeme und diese Grafiklösungen waren extrem leistungsfähig. Quake wurde von ID auf solchen Systemen entwickelt als OpenGL im Enduser-Bereich noch vollkommen unbekannt war.
Mit dem Pentium Pro (dem ersten P6 Prozessor von Intel) kam dann die Wendung im Workstation Bereich. Man konnte mit CPUs, die nur einen Bruchteil der RISC-Konkurrenz kosteten ein System bauen, dass fast oder auch oft genau so schnell war, wie eines der teuren Workstation-Systeme. Der P6 war auch die erste CPU, die für SMP Systeme mit bis zu 8 CPUS laufen konnte. Als es dann zum Pentium 2 ging (der Nachfolger des Pentium Pro und einigen Technologien aus dem Pentium MMX) kam man dann auch zu der oben eingangs gestellten Frage: "Ab wann ist ein PC eine Workstation?".
Es gibt Workstation mit CPUs aus dem Desktop-Bereich. z.B. dem i5 oder i7. Ein PC an dem man arbeitet und der mehr als eine CPU (was dann nur Xeons oder Opterons sein können) hat ist also eindeutig eine Workstation und kein PC. An einem Server arbeitet man nicht direkt und der wird wohl in einem Rack eingebaut sein oder wenigstens in einem anderen Raum stehen. Was aber nicht besagt, dass der Server nicht auf normaler PC-Hardware basieren darf. Spezielle Grafiklösungen wie Quadros sprechen auch stark für eine Workstation Bei allem darunter ist es wohl einfach auch eine Definitionssache des Herstellers. Eine HP Z400 ohne Xeon ist an sich von der Hardware ein normaler PC.
Wenn jemand den Xeon als Server-CPU bezeichnet hat er aber irgendwo auch wieder recht und dass ist der Punkt wie ich eine Workstation definieren würde. Ein PC der auf Hardware und Technologie aus dem Server-Bereich basiert. Wie ein Server soll eine Workstation hohe Performance liefern, über lange Zeit zuverlässig und stabil laufen. Sollte es zu einem Ausfall kommen, kostet jede Minute, die die Maschine nicht läuft bares Geld, weil es nicht einfach einen Ersatz gibt. Die Workstation muss also gut wartbar sein. Was bedeutet, dass Hardwarekonmponenten mit wenigen Handgriffen ausgetauscht werden kann.
Stabil wird das System durch hochwertige Komponenten und Hardware die extra Zertifizierte Treiber liefert und Fehlerkorrekturen wie ECC unterstützt.
Wenn ein PC so etwas alles erfüllt ist es eine Workstation. Wenn man einen Server nimmt und daran wie mit einem PC arbeitet, ist es auch eine Workstation.
Wenn man also einen Rechner mit Xeon-CPU vor sich hat, muss es nicht unbedingt ein Server sein und wenn man sich einen guten PC zusammen bauen will, sollte man auch mal überlegen ob die Vorteile einer Xeon-CPU nicht auch dort für sich von Vorteil wären.
Meine meisten Email-Adressen sind ja nur Weiterleitungen. Beim Umzug meiner Domains auf meinen Server habe ich auch erst einmal alle umgezogen, die keine Email-Adressen haben. Das waren ein paar, aber dann war ich schnell bei denen mit Email-Adressen.
Damit ich nun auch hier einen sehr weichen Umzug hinbekomme, waren nun alle dran, die nur Weiterleitungen hatten.
Weiterleitungen sind mit Postfix wirklich einfach umgesetzt. Die DNS Einträge hat Netcup bei mir immer gleich schon mit eingerichtet, so dass ich dort nichts weiter machen musste.
Zu erst muss natürlich Postfix instaliert werden.
sudo apt-get install postfix
Danach einfach die Config-Datei von Postfix editieren. Die Datei findet man jeden Falls unter Ubuntu
hier:
Bald ist mal wieder Bastelzeit. CPU, Mainboard, RAM, Festplatte und Netzteil liegen breit. Heute kamen dann die Kühler an. Kühler für Socket 1366 Server-/Workstation-Mainboards zu bekommen ist nicht ganz so günstig wie für Desktop-PCs. Aber sie sind katzen-geprüft und von Supermicro. Es kann also nicht so viel schief gehen und mit BeQuiet-Lüftern drauf kühlen die dann auch gut.
Nur ein gutes und günstiges Gehäuse fehlt mir noch. Ich hätte gern ein Intergraph TDZ Gehäuse, aber die scheint es seit Jahren nicht mehr zu geben.
Ich bin jetzt auch mit MP4toGIF.com auf meinen Server bei netcup umgezogen. Einer der Hauptgründe von dem Hostingpacket von 1&1 auf einen eigenen Server umzuziehen war neben den günstigeren Betriebskosten für Server und Domains auch die Möglichkeit SSL-Zertifikate von Let's Encrypt verwenden zu können. Also keine 2,99 mehr pro Domain, um https nutzen zu können.
Let's Encrypt ist auch sehr einfach zu verwenden. Hier ist eine Anleitung für Ubuntu 16.04 LTS.
Zu erst, um nicht erst in kryptische Fehler zu laufen, aktivieren wir SSL für den Apache.
Dann startet der Client und man muss den Anweisungen folgen. Bei mir brach er mitten drin ab weil 'sudo apache2ctl configtest'
einen Fehler meldete, der wohl auf das bei mir noch nicht aktive SSL-Module zurück zu führen war.
ABER es ist sehr einfach den Rest per Hand einzurichten.
Zuerst die conf-Datei in sites-available mit dem Zusatz "-ssl" doppeln. Also zum Beispiel mp4togif.conf in mp4togif-ssl.conf doppel.
Dann in der neuen Datei den Port von 80 auf 443 ändern und dies hier einfügen.
Include /etc/letsencrypt/options-ssl-apache.conf
SSLCertificateFile /etc/letsencrypt/live/mp4togif.com/cert.pem
SSLCertificateKeyFile /etc/letsencrypt/live/mp4togif.com/privkey.pem
SSLCertificateChainFile /etc/letsencrypt/live/mp4togif.com/fullchain.pem
Nun nur die site aktivieren mit
sudo a2ensite mp4togif-ssl
und den Apache neuladen
sudo service apache2 reload
und schon sind wir fertig und https sollte funktionieren.
Ich benutze Linux jetzt seit über einem halben Jahr bei der Arbeit und auch privat läuft auf einem Notebook Linux. Meine letzten Entwicklungen mit PHP und Java habe ich so entwickelt, dass sie sowohl unter Windows als auch unter funktionieren. Java und PHP machen es auch mehr als einfach, wenn man nicht auf irgendwelche DLLs angewiesen ist. Die RFID-Reader werden über Ethernet angesprochen und zum Glück gibt es beide SDKs nativ für Java.
Für Windows spricht eigentlich nur noch die Adobe Software. In allen anderen Fällen gibt es kaum einen Unterschied mehr. Das sehe wohl nicht nur ich so sondern fast alle. Linux Software wie Openshot 2.0 gibt es jetzt auch für Windows. Microsoft bringt den SQL-Server und jetzt auch die PowerShell für Linux raus. Die Bash gibt es ja auch für Windows.
Und seit es Windows 10 nicht mehr kostenlos gibt, ist der Vorteil von Linux, dass es kostenlos ist, wieder bedeutender geworden. Bei Entwicklern hat man den Vorteil, dass diese sowie so lieber ihre Rechner selbst Administrieren wollen und somit keine weiteren Kosten entstehen durch höheren Administrationsbedarf bei den Benutzern.
Aber auch bei den normalen Benutzern sollte Linux eigentlich eine gute Alternative sein. Die meisten Anwendungen wandern oder sind schon in der Cloud und damit reduziert sich das Betriebssystem schon fast auf einen Luncher für den Webbrowser. Firefox/Chrome und Thunderbird sind auf Windows sowie schon sehr verbreitet und somit ist eine Umgewöhnung fast nicht mehr nötig. Linux Mint sieht fast genau so aus wie ein Windowssystem und das Updaten der Software ist sehr viel zentraler und einfacher zu managen.
Linux ist wie auch Windows 10 sehr sparsam was die Hardware-Resourcen betrifft. Ein altes Notebook mit Pentium Dual-Core und 2GB RAM läuft mit Linux sehr gut und auch Probleme wegen veralteter Windows-Treiber sind gelöst.
Mit gebrauchter Hardware und Linux Mint sollte sich eine komplette IT-Infrastruktur für kleine Büros bauen lassen. Alte aber wieder aufbereitete Hardware ist günstig zu bekommen und Geräte von HP oder Dell auch oft in entsprechenden Stückzahlen an gleichen Geräten, so das man ein paar mehr Geräte kaufen kann, um bei Hardwareausfall gleich Ersatz zur Hand zu haben. Man kann ein Installationsimage erstellen und so Installationen in wenigen Minuten durchführen. Die Kosten sollten sich damit auf vielleicht 40% der Kosten von Neugeräten belaufen und für Internet, Email und Office reicht die Hardware immer noch mehr als aus. Die Leistung eines 10 Jahre alten PCs ist heute immer noch ausreichend. Ich habe meinen PC von 2006 nur gewechselt, weil HyperV darauf nicht lief.. was ich aber trotz neuen PC immer noch nicht verwende und einfach bei VirtualBox geblieben
bin.
Bei VirtualBox wären wir auch schon beim nächsten Punkt: Virtualisierte Server. Ein gebrauchter Server ist nicht teuer und wenn man die Server an sich in VMs laufen lässt, kann man auch immer mal schnell auf einen größeren Server upgraden ohne längere Ausfallzeiten der Systeme zu haben. Bei guter Planung sollte so ein Umzug auf einen neuen Server in 10 Minuten durch geführt sein. Für die meisten Server-Anwendungen braucht man nur eine einfache LAMP-Umgebung. Groupware wie Tine 2.0 bieten Email-Client, Kalender, Adressbuch und alles mögliche und lassen sich auch mit dem Smartphone nutzen. Wer komplette Office-Umgebungen wie Office 365 braucht findet bei OwnCloud und LibreOffice eine Alternative, die leider etwas kostet aber noch relativ günstig ist.
Aber genau wie auch bei Windowsumgebungen und neuer Hardware braucht man jemanden der alles einrichtet und installiert. Wer glaubt diese Kosten mit Windows umgehen zu können, wird sich schnell wundern. Deswegen würde ich keine höheren Administrationskosten bei Linux sehen im Vergleich zu Windows.
Deswegen auch nicht einfach alte Hardware in den Müll werfen! Mit Linux kann die Hardware noch einige Jahre gut weiter verwendet werden und man spart nicht nur sich Kosten sondern schon auch etwas die Umwelt damit. Wer es noch nicht versucht hat, sollte Linux mal eine Chance geben. Ich werde jedenfalls mal Collabora testen. Es wäre sicher eine Lösung, die gerade kleineren Firmen viele Kosten sparen kann.
Die erste Komponente für den 100 Euro Office Server ist schon angekommen. Die CPU hat 7 Euro gekostet. Der wird nur aus gebrauchten Teilen bestehen.. ich werde berichten.
Gerade in Firmennetzwerken kann man nicht immer wie man gerade will eine VM ins Netzwerk hängen. Oft hat man aber Bedarf an einer VM. Gerade wenn man auf Windows entwickelt und am Ende auf Linux deployen soll, ist es immer gut eine Linux-VM zur Hand zu haben, um schnell selbst testen zu können, ob da noch alles läuft.
Auch fertige VMs wie die von Oracle mit einer fertig installierten Datenbank sind wirklich praktisch und können in vielen Situationen helfen.
Um jetzt aber einen eigenen Server in VM zu betreiben, von dem man vom Host aus zugreifen kann, aber kein anderer Rechner im Netzwerk diesen Server sehen kann, kann man in VirtualBox ein Host-only Netzwerk erstellen. Der Host ist Teil des Netzwerks, aber er Rest ist rein virtuell.
Beim einfachen Anlegen einer VM ist immer NAT voreingestellt.
Zuerst muss man das Host-only Netzwerk erstellen.
am Besten mit DHCP damit man sich nicht mit den IP-Adressen herum ärgern muss.
Danach die VM von "NAT" auf "Host-only" beim Netzwerkadapter umstellen.
Wenn man nun die VM wieder startet sieht man schon dass die IP sich geändert hat
Nachdem ich feststellen musste, dass man Stash/BitBucket zwar für $10 für ein kleines Team kaufen kann, aber man dafür eine Kreditkarte benötigt, habe ich mit auf die Suche nach einer kostenlosen Alternative.
Das Problem der meisten Alternativen wie Gerrit oder Apache Allura ist doch die immer sehr aufwendige und auch umständliche Installation. Auch gerade wenn man Windows benutzt und nicht Linux. Auch hat nicht jeder Windows-Benutzer der Zuhause etwas entwickeln möchte eine Windows 2008 Server-Version. Ich hatte mir etwas vorgestellt, was ich einfach im Tomcat deployen kann als WAR und dann ist es da (vielleicht noch Einstellungen wie Speicherort und Datenbank.. aber nicht viel mehr). Die beiden genannten Systeme können
zwar sehr viel und gerade Gerrit ist wohl noch mal einen zweiten Blick wert, aber ich wollte erst einmal schnell was kleines und einfaches.
Ich habe länger gesucht und habe am Ende Gitblit gefunden. Die WAR downloaden, ins webapp Verzeichnis kopieren und den Tomcat starten... und es war da. Eingeloggt mit dem default-User und alles erschloss sich gleich.
Und mit das Beste ist die vorhandene Integration von SourceTree, die bei mir langsam war aber an sich sauber und gut funktionierte. So kann man sich auf jeden Fall für Testzwecke in wenigen Minuten einen GIT-Server einrichten.
Ich weiß, dass der TIOBE-Index nicht immer wirklich aussagekräftig ist, aber er zeigt doch immer ganz gut Tendenzen an. Dieses Jahr ist Java eindeutig der Sieger. 6% Zuwachs im Vergleich zum Vorjahr sind schon sehr viel. Aber das führt mich wieder zu einem anderen Thema und einer Behauptung von mir. "Durch den Verlust der Desktop-GUIs wird Java keinen Schaden nehmen".
In der Zeit wo Java 6% zulegte, verlor Java auch viele Anteile im Bereich der Desktop-Anwendungen basierend auf Swing und JavaFX. Ich würde damit ist widerlegt, dass ohne den Desktopbereich, Java und die JEE-Welt Schaden nehmen würde.
Wenn man dieses Diagramm mit dem aus diesem Post über JavaFX vergleicht, sieht man dass Swing und JavaFX insgesamt einen ähnlichen Verlauf nahmen wie Java nur den letzten Aufschwung nicht mitgemacht haben. Die Stärken und Neuentwicklungen von Java liegen also wo anders und reichen insgesamt aus um Java insgesamt zu Pushen und die Verluste im Desktop-Bereich mehr als auszugleichen.
Java hat und hatte schon immer seine Stärken auf der Server-Seite und da ist wohl auch noch genug Luft nach oben. Konkurrenz gibt es mit PHP und Node.js genug und es wird wirklich spannend, ob PHP mit PHP7 wieder mal etwas zulegen kann. Von der Performance her lag Java schon immer weit vor PHP, aber jetzt sollte PHP etwas aufholen können. Es wird spannend.. auch wenn PHP sicher etwas Zeit benötigt. In der PHP-Welt werden Neuerungen irgendwie immer sehr skeptisch aufgenommen. Die Migration auf PHP7 ist meistens sehr einfach und schnell. Java lebt momentan von Microservices, Reactive-Programming und bietet auch Event-Driven Frameworks wie Vert.x als Konkurrenz zu Node.js.
Ich bin mir unsicher, ob PHP da mithalten kann. WebSockets und Server-Sent Events sind im Tomcat 8 von Haus aus dabei, während man bei PHP da noch mehr basteln muss.
Nicht jede Firma die gegründet wird ist eine IT-Firma oder ist in dem Bereich Bereich bewandert. Oft haben diese Firmen ganz andere Aufgaben, Sorgen und Probleme am Anfang als sich über IT-Infrastrukturen, Server und ihre Daten Gedanken zu machen. Meistens reichen die Überlegungen dahin, dass man eine Homepage, Email-Adressen und PC braucht.
Für Firmen mit 2-3 Mitarbeitern reichen diese Überlegungen auch meistens und weiter IT-Themen und -Probleme erledigt man einfach neben her. Bei einer Person reicht ein Standard PC mit DSL, ein kleines Homepage-Paket bei einem der üblichen Hoster (1und1 oder Strato) und die übliche Software (Libre- oder MS Office, ein Browser und ein Email-Programm wie Exchange oder Thunderbird).
Wenn man jetzt aber doch gleich am Anfang 10 Mitarbeiter hat, sieht die Welt wieder ganz anders aus. Aus dem Wunsch nach einer Homepage entwickelt sich dann die Frage: "Kann ich mich dann auf der Homepage auch einloggen und meinem Kalender und eine Emails einsehen?". In der alten Firma lief die Groupware im Browser und alles was im Browser läuft ist eben für viele eine Homepage.
Eine Groupware im Browser hat extreme Vorteile und wenn alles direkt über eine öffentliche URL zu erreichen ist (also so zu sagen in der Cloud liegt) löst es schon mal viele Probleme bei den Mitarbeitern, die bei Kunden sind, von Zuhause aus arbeiten oder auch alles immer auf ihrem Smartphone im Zugriff haben möchten. Auch ist die Administration einfacher, da auf den Client PCs nichts installiert werden muss und man somit nicht auf Betriebssystem, Updates, Laufzeitumgebungen und so achten muss. Ein relativ aktueller Webbrowser reicht.
Das erste Problem kommt direkt mit dem Wunsch nach einer Groupware. Ein kleines Homepage-Paket mit Shared-Hosting für ein paar Euro im Monat reicht hier meistens nicht aus, weil die Groupware-Lösungen gerne noch zusätzliche PHP-Erweiterungen hätten, was anderes als PHP benötigen oder auch der Hoster keinen direkten SMTP-Versand für Emails anbietet und ein Fallback auf die email-Funktion von PHP nicht wirklich den Anforderungen genügt. HTTPS ist dann auch nochmal ein anderes Thema...
Das ist kein so großes Problem, wenn nicht schon ein Paket und Domains geschafft wurden und nun weiterhin davon ausgegangen wird, dass der günstige Preis gehalten werden kann. Es ist schwer klar zu machen, dass Email-Adressen und alles für eine einfache Homepage vorhanden ist, aber man um beides zusammen zu bringen mehr Geld ausgeben müsse.
Außerdem ist mir auf gefallen, dass bei den günstigen Angeboten gerne auch mal Ausfälle mit zu berücksichtigen sind. Einmal eine halber Tage Emails weg, dann noch mal an einem anderen Tag ist die Homepage nicht zu erreichen. Wenn die Groupware nicht verwendet wird (weil Thunderbird auf den Desktops angenehmer ist) oder mal die Kalender nicht synchronisiert werden können, ist es nicht ganz so wild. Aber für eine Firma die mit Kunden kommuniziert oder wichtige Unterlagen per Email erhält, ist ein halber Tag ohne Email schon nicht wirklich schön.
Tine 2.0 hat sich da als relativ gute Groupware heraus gestellt, wenn man nur einen einfachen Webspace mit MySQL-DB hat. Man sollte keine Wunder bei der Leistung erwarten und es dauert teilweise bis z.B. CalDAV zum Laufen bekommen hat, aber es ist eine brauchbare Lösung für solch ein Problem und in der freien Variante auch wirklich noch sehr leistungsfähig, wenn man hauptsächlich Email und Kalender verwenden möchte.
Wenn wir nun den Teil erledigt haben geht es in die Firma und die dort vorhandene Infrastruktur. Auch hier fangen die Probleme an, wenn schon PCs,Notebooks und ähnliches gekauft wurden.
Denn auch hier wird aus der Sicht des normalen Anwenders gekauft. Ein Notebook gilt als cool, PCs kauft wo gerade mal einer günstig ist, weil am Ende sehen die zwar unterschiedlich aus sind aber ja an sich gleich. Es gibt sehr verlockende Angebote von gebrauchten Rechnern bei EBay, die kommen dann vorinstalliert mit Windows bei einem an. Spätestens hier sollte man sich als unbedarfter Anwender/Firmen-Chef/Verantwortlicher Hilfe holen. Das erspart einen später viel Stress und Kosten. Man muss immer davon aus gehen, wenn man am Anfang etwas mehr Geld investiert, spart man es in späteren Zeit wieder ein.
Bei solchen PCs gilt es zu beachten: * ist Windows nur installiert oder ist wirklich eine Lizenz dabei? Wenn ja, sollte man etwas in der Hand haben, dass es auch beweist! (Ebay-Verkäufer muss Unterlagen und Rechnungen unbedingt mitliefern)
* ist der Admin-Account aktiviert und ist ein Passwort vergeben, dass der IT-Verantwortliche und eine Person vor Ort (falls IT von Extern kommt) kennt und sonst niemand?
* hat jeder Benutzer einen eigenen Account mit einem Passwort, dass nur er kennt? Wütende Ex-Mitarbeiter können bei kleinen Firmen schon einen großen Schaden anrichten, wenn sie bei nicht geschützten PCs einfach mal eine unbekanntes Passwort setzen! (Hier hätte zur Not der Admin-Account geholfen, wenn er aktiviert worden wäre)
* einmal feststellen, ob die Rechner reparierbar sind. Also ob Festplatten im Notfall einfach entnommen werden können und es normale Netzteile sind, falls mal eins ausgetauscht werden muss.
Wenn vor dem Bestellen geplant wird: * baugleiche PCs und baugleiche Notebooks kaufen.
* pro Standort mindestens einen Ersatz-PC haben, damit in Falle eines Ausfalls die Person schnell weiter arbeiten kann.
* ein einheitliches Festplatten-Image aufsetzen (Betriebssystem mit Admin-Account, VNC, Benutzer-Programmen, etc.)
* und auch gleich dann Werkzeug, Kabel, USB-Stick und Rohlinge mit bestellen, wenn man schon mal dabei ist
Nun hat jeder Mitarbeiter seinen PC. Bei mehr als 2 PCs kommt jetzt das Problem mit dem Datenaustausch. Emails zu verwenden (am Besten noch über den Hoster der Homepage) kann mit dem Datenschutz Konflikte verursachen (Verschlüsselung und so). Also wird es am Besten über das LAN getauscht. Wenn man nun Außenstellen hat, müssen diese per VPN angebunden werden. Also muss es auf jeden Fall ein DSL-Anschluss für Firmen sein.. nichts was sonst für private Kunden gedacht ist.
Meistens hat man dann auch WLAN. Das ist für Smartphones (man will ja nicht zu viel Telefonkosten darauf verursachen) und Tablets praktisch bis notwendig. Notebooks, PCs und Drucker sollten, wenn sie am Arbeitsplatz stehen immer mit Kabel angeschlossen sein. Kabel ist weniger fehleranfällig und schneller auch bei vielen Geräten. Wenn man keine riesigen Dateien wie Filme oder CAD-Files kopieren muss oder VLANs möchte, reicht 100Mbit vollkommen aus und 8-fach Switches gibt es ab 10 Euro. Auch bessere 16-fach Switches sind nicht ganz so teuer. Wichtig ist auch hier ein paar Ports in Reserve zu haben. Wenn WLAN nicht bis in die letzte Ecke reicht einfach einen günstigen WLAN-Repeater kaufen. Die funktionieren wirklich gut und erhöhen den Radius enorm.
Wenn man an den Arbeitsplatz-PC sparen möchte, dann lieber überlegen, ob man nicht Libre-Office an Stelle von MS Office verwendet oder ob ein Linux-System wie Ubuntu nicht auch für die Mitarbeiter geeignet ist. Aber das hängt auch sehr von der anderen Software ab, die verwendet werden soll. (In 90% aller Fälle würde so ein Linux-System aber ausreichen, gerade wenn die Software in der Cloud oder anderweitig im Browser läuft).
Jetzt kommt das harte Thema. Da wird man den Firmen-Chef schocken. Es geht um einen Server und seine Kosten. Der Server soll als Fileserver agieren und am Besten noch die Anwender-Profile speichern. Eigener Email-Server und Homepage und Groupware von dort aus zu betreiben ist erst einmal nicht so wichtig. Aber falls mal ein Email-Archiv benötigt wird kommt es auch noch auf einen zu und da kann man ja schon mal zukunftssicher Planen. Mehrere physikalische Server in einer kleinen Firma sind einfach nicht nötig, da die Server sich die meiste Zeit langweilen werden. Also VMs verwenden. Da braucht man ein System das 3-4 VMs laufen lassen kann, genug Festplattenspeicher hat, wo man remote die VMs überwachen kann und dann am Ende noch einfach Sicherungskopien erstellen kann. So etwas wäre ideal.
So etwas gibt es auch von QNAP. Mit Festplatten kommt man schnell auf über 3000 Euro. Das ist im Grunde nicht viel, für das was es leistet (und für eine kleine Firma wird es reichen). Außerdem braucht man nicht zwingend ein 19"-Rack oder komplexe Kühlungen. Auch die Administration scheint so einfach zu sein, dass man in Notfällen für kleine Dinge wie eine VM neu zu starten, auch einen der Mitarbeiter anlernen kann. 4TB würde am Ende auch reichen.
Linux mit Samba kann einen kleinen Windows-Server ersetzen (wenn man kein Exchange braucht). Aber auch sonst sind Windows-Serverversionen nicht mehr so teuer. Turnkey-Linux bietet für solche Zwecke auch VM-Images direkt an. Nichts für den normalen Anwender auch wenn es eine Web-GUI gibt. Hier muss einfach jemand sein, der sich mit sowas auskennt (Linux und/bzw. Firmennetzwerke an sich).
Da hilft ein jugendlicher Sohn eines Mitarbeiters oder so. Da muss jemand bezahlt werden. Soll Datenschutz gewährleistet sein, dann muss auch entsprechend bezahlt werden. Da es aber kein Vollzeitjob ist, ist >100 Euro/h auch nicht ganz so schlimm, auch wenn er sich erst einmal nach sehr viel Geld anhört. Gute Dienstleistungen kosten und Probleme mit Arbeitsausfall kosten am Ende immer mehr.
Ist wie mit einem Raid-System. 2 Festplatten sind teuer als eine, aber die 2. Festplatte ist günstiger als wenn da jemand 4h versucht Daten zu retten oder noch eine Firma dafür beauftragt werden muss.
Am Ende ist noch die Frage nach der Datensicherung. Hardware, Strategie und Lagerung. Ich mag BD-Rohlinge. Bänder sind auch super, aber etwas komplexer in der Handhabung. Archiv-Lösungen von Sony sehen auch gut aus sind aber sehr teuer. Aber auch hier immer ein zweites Laufwerk vorhalten (das ist bei BluRay sehr günstig). Gut zu erklären ist das Problem der Lagerung mit Feuer und Überschwemmungen. Natürlich abhängig vom Ort. Aber Feuer kann immer ausbrechen, egal wie gut alles abgesichert ist. Auch wenn alles versichert ist, will man ja keine Daten verlieren.
Hier kommen noch mehr Kosten hinzu, aber auch hier sollte man sich vorher Gedanken machen und planen und nicht erst reagieren, wenn was passiert ist.
Es ist auch absolut keine Lösung die Mitarbeiter ihre Daten vom PC auf einen USB-Stick sichern zu lassen. Alles im Profil ablegen und das auf dem Server speichern und dann Sicherungskopien vom Server erstellen. Auch wenn mal ein PC kaputt geht, kann er einfach ausgetauscht werden und der Mitarbeiter meldet sich wieder an und arbeitet im idealen Fall da weiter wo er aufgehört hat.
Ausfälle von PCs und Notebook werden dadurch sehr viel weniger schlimm und verursachen nicht mehr als die Reperaturkosten (kein Arbeitsausfall, niemand der Daten von defekten System retten muss).
Wenn man nun mit so einer Aufgabe betraut wird, konnte ich hoffentlich etwas helfen, dass man eine kleine Liste hat, auf was man achten muss. Wenn man selbst eine Firma gegründet hat und das alle eigentlich selbst machen wollte, weil es erst einmal nicht so komplex aussah, sieht man jetzt hoffentlich, dass man sich wenigstens einmal mit einer kompetenten Person aus dem Bereich unterhalten sollte, bevor man etwas in Angriff nimmt.
Ich musste vieles hier erst einmal lernen, im Besonderen, dass solche Probleme auch wirklich auf treten, wie sie hier teilweise beschrieben sind. Man darf den Leuten, die so etwas machen, auch keinen Vorwurf machen, da sie aus ihrer Sicht das Beste tun. Ihnen fehlt die Erfahrung in solchen Komplexen Systemen, um solche möglichen Probleme zu erkennen.
In meinem Nebenjob durfte ich auch schon einen kleinen Blick in die Welt von kleinen relativ jungen Firmen werfen. Wenn man etwas an Endkunden verkaufen will, braucht man Werbung. Eine Homepage. Eine Facebook-Seite. Hübsche Bilder der Standorte und der Mitarbeiter die einen als Berater zur Seite stehen.
Computer werden schnell und günstig bei Ebay gekauft und der Rest wird schon funktionieren. Als normaler Benutzer klingt das ja ganz ok. PC kaufen, benutzen, und sonst ist da ja nicht mehr. Aber bei Firmen sind Daten einfach auch Geld und ein Ausfall kostet Arbeitszeit (=Geld). Wenn was kaput geht oder Hilfe gebraucht wird muss man jemanden holen der versucht alles wieder in Ordnung zu bringen. Das wäre dann ich.
Hier sind einfach mal ein paar Tipps, um möglichst selten Leute wie mich vor Ort zu haben.
* Kauft Dell, Lenovo, HP, etc.. mit Service-Vertrag. Wenn etwas kaputt geht, hat man schnell und unkompliziert Ersatz. Stunden lang an einem PC rum zu schrauben kostet ab dem 2 PC mehr.
* Wer nicht unterwegs ist braucht kein Notebook. Notebooks sind teurer und schlecht zu reparieren. Der günstigste PC mit Monitor ist immer noch günstiger und schneller als ein Notebook der mittleren Preisklasse.
* Kauft einen Server um die Windows Profile darauf zu speichern. Benutzer speichern das meiste sowie so auf dem Desktop. So bekommt man Datensicherung ohne viel Aufwand.
* Kauft gültige Windows Lizenzen! Bloß weil auf einen Notebook von Ebay Windows installiert ist, heißt es dass eine gültige Lizenz dabei ist.
* Die Benutzer sind keine IT-Profis. Wenn die sich daran versuchen müssen, weil an der richtigen IT gespart wird, darf man ihnen keinen Vorwurf machen, wenn mal was in die Hose geht
* IT und Homepage-Basteln sind komplett verschiedene Welten. Die einen bauen eine Homepage und die anderen halten die Firma am Laufen!
* keinen DSL-Anschluss für Privatleute sondern einen richtigen für Firmen. Es ist den Aufpreis wert, spätestens wenn man einen eigenen Web-Sever mit einer Groupware und einen Email-Server möchte
* Datenschutz. Signaturen und Verschlüsselungen kosten.. aber ersparen einen viel Arbeit, wenn es um den Datenschutz geht. Also eigener Server mit HTTPS und sonst allem verwenden!
* Backups machen!
* Immer einen Ersatz-PC haben. Wenn einer kaput geht, einfach austauschen und neu anmelden (weil wir die Profile ja auf dem Server speichern!) und schon geht es weiter. Der Ersatz-PC muss fertig eingerichtet sein und pro Standort existieren. Den anzuschliessen geht einfach und der IT-Fachmann kann sich Zeit lassen und man hat keinen Stress mit dem Ausfall von Arbeitszeit.
Mein nächstes Projekt wird dann sein, einen möglichst günstigen Server zusammen zu basteln, wo dann Profile gespeichert werden können und niemand sagen kann, dass ein Server zu teuer wäre. Alles natürlich als VM damit der Server dann mit dem Unternehmen mit wachsen kann. Ich habe bei Turnkey-Linux schon mal wohl eine gute Grundlage gesehen. Hardware muss ich mal gucken, ob von was konkreten ausgehe oder einfach einmal erkläre wie man VMWare oder VirtualBox installiert. Aber ein kleiner Tipp was man für Hardware braucht wäre wohl nicht schlecht.
Nachdem ich mich in den letzten Tagen irgendwie mehr wieder Services und Service-Strukturen
gedanklich beschäftigt habe (in Staus hat man viel Zeit für so etwas), habe ich mal angefangen in paar kurzen Gedanken zusammen zu fassen, wie ich mir eine Umgebung vorstelle, mit der man sehr flexibel und fehler-tollerant arbeiten und entwickeln kann.
Es geht hier hauptsächlich um REST-Services, die man z.B. von einer AngularJS Anwendung oder einen Java-Desktop-Client Aufruft. Oder auch REST-Services die zwischen Servern zur Kommunikation verwendet werden.
Wichtig dabei ist auf jeden Fall, dass man Config-Dateien an einem separaten Ort ablegen kann. Also getrennt vom Service-Code, so dass man ohne Probleme eine neue Version deployen kann, ohne sich darum Gedanken machen zu müssen, ob man die Config überschreibt oder eine für ein falsches System darin enthalten sein kann. Die Anpassung des Services wird extern von der Umgebung gemanagt.
Sollte keine eigene Config-Datei vorhanden sein, sollte der deployte Service mit default Einstellungen laufen.
Die Umgebung sollte einen Service deployen, undeployen und pausieren können. So dass man einen Service für Wartungen deaktivieren kann und das System Anfragen entweder so lange hält (bis der Service wieder da ist oder eine Timeout kommt) oder eine allgemeine Antwort zurück liefert, die dem Anfragenden darüber informiert, dass der Service zur Zeit nicht verfügbar ist.
Es sollte auch ein Reload eines Services möglich sein, um z.B. geänderte Config-Daten zu erkennen. Da würde ja ein Call auf eine Methode des Service-Objekts reichen, dass in einem bestimmten Interface vorgegeben wird.
Wenn man eine große Anwendung hat, muss man früher oder später die Services auch untereinander kommunizieren lassen. Konzept wie @ejb halte ich für zu unflexibel, da man direkte Pfade und so berücksichtigen muss. Ein Service sollte intern einen selbst gewählten eindeutigen Namen haben. Der alleine reicht um einen Service anzufordern. Da wird dann aber auch nicht ein Interface un eine Proxy-Klasse zurück geliefert sondern ein Descriptor-Objekt, dass angibt ob der Service verfügbar ist und die Root-URL. Es müsste auch eine Version mit in der Anfrage nach dem Service sein, um zu verhindern, dass Dependencies ein nicht handhabbares Problem werden. Wenn man die Verfügbarkeit über das Objekt prüft, wird immer der aktuelle Status des Services ermittelt.
Man kann also Versionen abhängige Logiken implementieren, falls der eigene Service sich mit einer aktuelleren Version anders verhalten sein, weil die vielleicht eine bessere Methode für irgendwas hat. Sollte ein Service gar nicht vorhanden sein oder plötzlich offline gehen, muss man gucken, ob meinen Fehler zurück liefert oder eine Fallback-Lösung bemüht. Wenn man z.B. einen zentralen Logging-Service verwendet und dieser während der Laufzeit in den Wartungsmodus versetzt wird, könnte man für die Zeit auf eine eigene Datei-basierte Lösung zurück greifen, bis der Logging-Service wieder verfügbar ist.
Die Umgebung hat ein zentrales Verzeichnis mit allen deployten Services. Man könnte überlegen, dass dieses Verzeichnis die Request nicht nur auf die Objekte mapped sondern auch auf andere Server weiterleiten könnte, so dass man Services sogar über verschiedene Server verteilen kann,
aber für den Client weiterhin einen zentralen Aufrufpunkt hat.
Auch könnte man implementieren, dass ein Service eine asynchrone Nachricht an das System schickt und die Nachricht dann an jeden Service verteilt wird.
Wichtig wäre bei der Kommunikation zwischen Services auf jeden Fall, dass Requests es auch asynchron bearbeitet werden können. Also das z.B. bei unserem Logging-Service zwar die Verfügbarkeit geprüft wird dann aber nach dem Fire-And-Forget Prinzip weiter verfahren wird. Ansonsten ist es auf der Service-Seite gerade mit inter-Service Kommunikation es wohl meistens einfacher synchron zu arbeiten. Auf Client-Seite sollte man ja asynchron arbeiten, da es die UX sehr verbessert.
DataSources und Transaction-Management sollte auch von der Umgebung alles bereit gestellt und verwaltet werden. In der Config-Datei für einen Service trägt man dann ein "verwende DataSource 'CRM_ARTICLES'". Der Service alleine darf sich selbst keine Datenbankverbindungen erstellen.
Mit soetwas sollten sich auch größere Anwendungen mit getrennten Modulen/Services entwickeln lassen ohne zu schnell in Probleme zu laufen.. natürlich nur wenn man die Möglichkeiten nutzt und nicht versucht am System vorbei Dinge zu erledigen. Ob so ein System für solche Service-Module performant realisieren kann, müsste man einfach mal ausprobieren.. wenn man die Zeit dafür hätte. In Java sollte sich so etwas gut Umsetzen lassen. In PHP sehe ich viele Probleme, weil man keine zentralen Application-Scope oder so hat.
Blog-entries by search-pattern/Tags:
Möchtest Du AdSense-Werbung erlauben und mir damit helfen die laufenden Kosten des Blogs tragen zu können?