Um z.B. in einer Gitlab Pipeline den AWS secretsmanager zu nutzen, um Passwörter oder Token abzufragen muss man erstmal den CLI Client installieren und konfigurieren. Das geht am Besten wenn man die Dateien direkt schreibt.
MySQL Dump bei Shopware haben manchmal das Problem, dass DEFINER und Datenbanknamen an Triggers mit exportiert werden, die nicht zur neuen Datenbank passen, wenn die Datenbank anders heißt und man einen anderen Benutzernamen hat.
Man kann dann mit einem Texteditor wie nano, vi oder Notepad++ die Datei durchsuchen und es per Hand fixen. Nur doof wenn die Datei 6GB groß ist und keiner der Editoren mehr so richtig performant mit der Datei arbeiten will.
Dafür gibt es dann in der Linux Kommandozeile sed:
mysqldump -u demouser -p demo_webshop > ./dump_for_65_update.sql
sed 's/`demo_webshop`.//g' dump_for_65_update.sql > dump_for_65_update_clean.sql
sed -i 's|/\*!50017 DEFINER=`demouser`@`localhost`\*/||g' dump_for_65_update_clean.sql
mysql --database=demo65_webshop --user=demouser65 -p < ./dump_for_65_update_clean.sql
Man kann da sicher noch allgemeine Ausdrücke für schreiben, aber das lag dieses mal außerhalb dem was der Kunde bezahlt hätte.
Während die Intenetnutzung im ICE mit dem Smartphone ohne Probleme geht, kann es mit Linux schnell zu Problemen kommen. Das liegt am IP-Bereich und Docker. Zwar kann sich das Gerät mit Linux ohne Probleme mit dem eigentlichen Netzwerk verbinden, aber dann kann die Seite zum bestätigen der AGBs nicht geladen werden.
Anleitung: - Mit dem WLAN verbinden
- prüfen welcher IP-Bereich zu gewiesen wurde
-
ip addr
- gucken welcher Eintrag mit dem Bereich kolliedert
- diesen Eintrag entfernen
-
Manchmal möchte man aus einem Tomcat heraus Processe und Programme aufrufen. Wie bei SQL-Injections muss man das natürlich stark absichern, aber das Konvertieren von Bildern und Video geschieht meistens auf diese Art und Weise.
Was aber wenn der Tomcat per ProcessBuilder nichts mehr aufrufen kann außerhalb seines Verzeichnisses, obwohl er alle Recht haben sollte? Wenn es ein System mit systemd ist (z.B. ein Ubuntu) ist, kann es einfach eine Security-Einstellung sein, die den Aufruf verhindert.
Hier muss man die Start-Config für den Service anpassen. "ProtectSystem=false" ist zum Prüfen der Lösung ganz gut, sollte aber später durch eine genauere Anpassung der ReadWritePaths geöst werden.
Nachdem ich wieder einmal Keys von Windows auf ein Linux-System umgezogen haben und wieder erstmal herausfinden musste wie die Rechte gesetzt sein müssen.. hier einmal ein kurzes Script dazu:
Ich hatte das Problem, dass der Befehl 'bash' nicht mehr mir die Bash meines WSL Ubuntu geöffnet hat sondern irgendwas machte und dann wieder in die Powershell zurück wechselte ohne was anzuzeigen. Das Problem kam wohl daher, dass ich Docker mit WSL vor Ubuntu installiert hatte. Also kein Hyper-V und kein Ubuntu. Daher war der 'bash' Befehl auf Docker gemappt und nicht auf das Ubuntu.
Ich habe einmal versucht Docker mit der WSL 2 based engine laufen zu lassen. Es war alles extrem langsam und alles dauerte ewig. Vorher lief Docker selbst auf einem langsameren Notebook ganz gut. Das hier beschreibt das Problem sehr genau. Am Ende bin ich auch wieder auf die Hyper-V Engine zurück gewechselt. Meine Daten in das WSL Dateisystem zu kopieren gefiel mir nicht wirklich, weil ich von Windows aus mit PHPStorm darin entwickel. Hyper-V deinstallieren klingt zwar auch interessant und ich könnte Virtual Box wieder verwenden.. aber so ganz traue ich dem nicht.
Nachdem ich meine wichtigsten Projekte in Docker-Container verfrachtet hatte und diese mit Traefik (1.7) als Reserve-Proxy seit Anfang des Jahres stabil laufen, war die Frage, was ich mit den ganzen anderen Domains mache, die nicht mehr oder noch nicht produktiv benutzt werden.
Ich hatte die Idee einen kleinen Docker-Container laufen zu lassen, auf den alle geparkten Domains zeigen und der nur eine kleine Info-Seite ausliefert. Weil das Projekt so schön übersichtlich ist und ich gerne schnell und einfach neue Domains hinzufügen will, ohne dann immer Container selbst stoppen und starten zu müssen, habe ich mich dazu entschieden hier mit Gitlab-CI ein automatisches Deployment zubauen. Mein Plan war es ein Dockerfile zu haben, das mir das Image baut und bei dem per Label auch die Domains schon angegeben sind, die der Container bedienen soll. Wenn ich einen neuen Tag setze soll dieser das passende Image bauen und auf meinem Server deployen. Ich brauche dann also nur noch eine Datei anpassen und der Rest läuft automatisch.
Dafür habe ich mir dann extra einen Gitlab-Account angelegt. Man hat da alles was man braucht und 2000 Minuten auf Shared-Runnern. Mehr als genug für meine Zwecke.
Ich habe also eine index.html und ein sehr einfaches Dockerfile (docker/Dockerfile):
FROM httpd:2.4
COPY ./index.html /usr/local/apache2/htdocs/index.html
LABEL traefik.enable=true traefik.frontend.rule=Host:darknovels.de,www.darknovels.de
Das wird dann also in einen Job gebaut und in einem nach gelagerten auf dem Server deployed. Dafür braucht man einmal einen User auf dem Server und 2 Variablen in Gitlab für den Runner.
Dann erzeugt man sich für den User einen Key (ohne Passphrase):
su dockerupload
ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
exit
Vielleicht muss man da noch die /etc/ssh/sshd_config editieren, damit die authorized_keys-Datei verwendet wird.
Den Private-Key einmal kopieren und in SSH_PRIVATE_KEY unter Settings - CI /DI - Variables speichern. Damit wir uns sicher vor Angriffen verbinden können müssen wir noch den Server zu den bekannten Hosts hinzufügen. Den Inhalt von known_hosts bekommt man durch:
ssh-keyscan myserver.com
Einfach den gesamten Output kopieren und in den Gitlab Variablen unter SSH_KNOWN_HOSTS speichern. Nun hat man alles was man braucht.
Es wird mal Zeit sich der Zukunft zu zuwenden und nicht mehr in der Vergangenheit zu leben. Deswegen werde ich endlich mal alle meine Seiten und Projekte in Docker-Container verfrachten und mit Traefik meinen Server neu strukturieren. Deswegen kann es im Dezember bei meinem Blog und MP4toGIF.com zu längeren Downzeiten im Dezember kommen. Ich überlege auch einen günstigen zweiten Server nur für Emails zu nehmen.
Das ganze sollte mir dann auch die Möglichkeiten geben spontan mal andere Dienste zu deployen. Im Kopf habe ich da so:
* Passbolt (als Ersatz für KeePasssXC)
* nextCloud um von OneDrive weg zu kommen
* und vielleicht Satis um meine PHP-Libs zu bündeln
Ich hoffe mal, dass alles ganz einfach und super funktioniert :-)
Manchmal braucht man schnell und einfach einen HTTPS-Server um z.B. eine App auszuliefern, die auf die Kamera des PC oder Smartphones per WebRTC zugreift. Das geht an sich ganz einfach wenn man weiß, was man alles braucht.
Damit hat man direkt einen HTTPS-Server bei dem man nur noch das unsichere Zertifikat akzeptieren muss.
Wenn man Windows verwendet muss man über die Bash (WSL) OpenSSL, NodeJS und NPM installieren und dann ist es wie unter Linux.. man befindet sich dann ja auch in einem Linux....
Danach sollte auf localhost:8000 der Shop starten.. wenn eine MySQL Auth.-Method Fehlermeldung kommt hilft die Container zu beenden. In der Docker-Compose das DB-Image von dem MySQL-Image auf das MariaDB-Image zu ändern und noch mal die Container neu zustarten und ein wieder install durchführen.
Dann sollte alles laufen und man kann sich unter localhost:8000/admin mit admin - shopware anmelden.
Wenn man die lokalen psh.phar-Aufrufe durch die direkten Docker-Befehle ersetzt, sollte es auch unter Windows funktionieren. Innerhalb des Containers kann man natürlich wieder psh.phar verwenden.
Update: manchaml kann auch helfen, dieses vorher einmal auszuführen, bevor man den Container startet und dort install aufruft:
ESM-Computer hat einen sehr interessanten Blog-Post geschrieben, der mich an alte Zeiten in Foren erinnert hat, wo man Freeware und Open-Source Listen hatte, damit die Mitglieder nicht ihr Geld für "fragwürdige" Software ausgeben, ob man für weniger (also nichts) mehr bekommen würde und auch um etwas zu Zeigen, dass es neben Adobe noch andere Lösungen gibt. Meiner Meinung nach fehlen in dem ESM-Post aber noch ein paar sehr gute Lösungen.
1. Videoplayer Da hat ESM-Recht... ich hatte den noch auf NT 4.0 laufen und es gab damals eigentlich keine Alternative. Es gibt den Server nicht mehr.. ja.. es gab einen Server und einen Client (das C in VLC steht für Client).
Man kann Video-Streams nehmen und ein eigenes Logo einbauen und es dann weiter streamen. Auch auf kleiner Hardware mit 1,2GHz und 2GB kann man ohne Probleme einen Stream von einem SAT-IP Server streamen und so ein Stream braucht wirklich Bandbreite.. wirklich viel.
2. Audio Seit neusten gibt es Cakewalk Sonar als Freeware. Seit Cakewalk-Zeiten (Cakewalk 5.0?) war es immer eine gute Lösung, auch wenn der aktuellen Freeware-Version einiges fehlen soll, ist es sicher immer noch eine gute Lösung.
3. Video Ich habe Lightworks ausprobiert und fand es so gut wie unbedienbar. Gerade für kleine Video hatte ich nicht die Ruhe mich lange damit zu beschäftigen. Früher war Adobe mit Premiere und AfterFX das Non+Ultra. Es gab noch exotischere Programme wie die von Autodesk/Discreet (Smoke, Combustion, etc). Aber an die kam man so garnicht ran ohne gleich ein komplettes Schnittsystem zu kaufen. Aber jetzt gibt es Blackmagic DaVinci Resolve, das auch keine großen Einschränkungen hat. Ich habe mir jeden Falls vorgenommen darauf umzusteigen, wenn ich mal wieder ein Video schneiden muss. Die Blackmagic Produkte kennt man ja und die waren schon immer cool.. auch deren Kameras.
Gibt es auch für Linux! Super professionelle Schnittlösungen für Linux waren lange echt nicht zu finden.. jetzt gibt es viele.
4. Audio 2 Ja.. kann man immer gut gebrauchen. Früher gab es noch Cool Edit Pro, bevor es von Adobe gekauft wurde und zu Audition wurde. Die erste Adobe Version war noch eine 1:1 Übernahme des Programms mit geänderten Namen.
5. Grafik Klar gibt es GIMP, das super für Fotos ist. Wer aber malen möchte ist mit Krita besser beraten. Für Zeichner wohl auch besser als Photoshop. Leider hat es keine 3D-Figuren wie Clip Studio Paint Pro.
Wacom Cintiq mit Clip Studio Paint
Vielleicht baut ja jemand mal ein Plugin um Blender zu integrieren. Genau wie GIMP stammt auch Krita aus der Linux-Welt und wurde dann auf Windows portiert.
Krita hat auch Pixelart Werkzeuge, aber kann sehr viel weniger als Aseprite, dass nicht kostenlos ist, aber als Portable multiplattform Lösung seine paar Euro echt das Geld wert ist (gibt es im Humble Bundle Store). Für Windows gibt es [url=http://www.ultimatepaint.com/de/]Ultimate Paint als kostenlose EA DeluxePaint Kopie (ja EA hat mal Grafik-Software gemacht! Hatte ich mal auf einem 386er.).
Animation mit Aseprite erstellt
Ultimate Paint
6. Grafik RAW Für die Bearbeitung von RAW-Fotos und als Alternative zu Lightroom gibt es noch RawTherapee für Windows und Linux. Begleitet mich seit meinen Nikon D80 Zeiten.. f*ck.. ist das schon lange her.
Der Vorteil der meisten genannten Lösungen ist einfach, dass es sie für Linux gibt, man also auch nicht mal mehr Windows als kostenpflichtige Software braucht. Ich mag Linux Mint.. wobei Windows 10 meiner Meinung nach die beste Windows Version seit NT 4.0 ist.
Bei Heise gibt es von Techstage einige Artikel über Sets von Überwachungskameras mit Netzwerk-Recordern und Teilweise mit Monitoren. Einmal fällt auf, dass die Begrifflichkeiten aus einer Zeit zu stammen scheinen in dem noch auf Videobändern aufgezeichnet wurde und andererseits fällt auch auf, dass die Preise mit min. 220 Euro doch schon sehr teuer sind. Gerade das Bild des offenen IP-Recorders von Abus zeigt ganz klar, dass hier sehr wenig "Magic" im Spiel ist, sondern diese Sets meistens nur aus einer Ansammlung von Standard-Komponenten bestehen die mit Standard-Protokollen unter einander kommunizieren.
Gerade das fällt in den Artikeln auf, dass nicht einmal der Begriff ONVIF fällt, der diese ganzen Sets relativ schnell entzaubert, wenn es sich nicht gerade um extrem proberietäre Cloud-Lösungen geht (bei China-Produkten bedeutet der Begriff Cloud meistens einfach nur FTP-Upload). Wenn man nun keine 220 Euro ausgeben kann oder möchte und trotzdem eine gute Lösung haben möchte, kann auf andere Komponenten zurück greifen, die genau so sich über ONVIF verbinden lassen und dabei noch sehr viel günstiger und teilweise hochwertiger sind. Die Einrichtung ist dann auch nicht komplizierter als bei den normalen China-Lösungen.
Wir werden ein Set aus einem "IP-Recorder" und 2 Kameras für weniger als 200 Euro zusammen stellen und dabei 1920x1080 als primäre Auflösung nutzen. Leider gibt es meine präferierte IP-Kamera nicht mehr zu kaufen, aber da WLAN sowie nett zu haben ist, nehmen wir die WLAN-Varianten. WLAN ist sowie so eine eher zu vernachlässigende Sache, wenn man eine Outdoor-Lösung anstrebt. Man muss immer beachten, dass man die Kameras mit Strom versorgen muss.
Die Netzteile sind zumeist nicht wetterfest und man müsste Verlängerungskabel verwenden. Damit man wetterfest bleibt ist die beste Lösung outdoor-CAT6 Kabel für PoE (Power over Ethernet). Wenn man also schon Ethernet-Kabel mit einem PoE-Switch für die Stromversorgung nutzt, ist es kaum Mehraufwand, das ganze mit dem vorhanden Netzwerk zu verbinden und hat damit zu meist auch eine bessere Verbindung als wenn jede Kamera einzeln sich mit dem WLAN verbinden würde. Bei Outdoor ist WLAN als eher optional, falls man irgendwie eine Kameras direkt neben einer Steckdose anbringen kann.
PoE Hub aus China
Indoor sieht es natürlich ganz anders aus. Hier ist WLAN schon sehr praktisch, weil hier auch keine wetterfeste Stromversorgung von Nöten ist.
Aber egal ob indoor oder outdoor angestrebt ist, der zentrale Punkt bleibt der "IP-Recoder". Aber was ist so ein Recorder überhaupt? Auf der einen Seite ist es ein einfacher Netzwerkspeicher, aber auf der anderen Seite bietet er auch Motion-Detection und übernimmt die Aufzeichnung der Bilder und Videos. Meistens können die Kameras dieses aber schon selber und man braucht nur einen Netzwerkspeicher wie ein NAS oder eine Fritzbox. Eine Fritzbox mit einer externen Festplatte könnte also schon reichen solange die Kameras die Daten per FTP hochladen können. Aber man müsste für die Live-Ansicht jede Kamera direkt ansteuern (P2P-Modus mal ignoriert). Gerade diese Zentralität und Einheitlichkeit in der Konfigurierung, wenn man verschiedene Kameras verwenden sollte, machen so einen Recorder sehr praktisch. Zum Glück muss so ein Recoder nicht teuer sein.
Variante Mini-PC: Ein Mini-/Tiny-PC von HP oder Lenovo ist nicht teuer und bietet sehr viel Leistung, im vergleich zu den Varianten aus den Sets bei Techstage. Ein i3 mit 4-8GB RAM ist sehr viel leistungsfähiger als ein ARM Singleboard-Computer. Auch kann man hier einfacher eine große HDD oder SSD einbauen und mit externen Festplatten erweitern und spart sich damit ein zusätzliches NAS. Auch haben diese PCs mehrere USB-Anschlüsse für USB-Kameras (was indoor eine gute Alternative zu IP-Kameras sein kein). Wenn eine Windows-Version dabei ist, kann man diese nutzen oder sich ein Linux installieren.
Mit Windows kann man iSpy verwenden, das sehr viele Einstellmöglichkeiten hat und dabei sogar einen viel Arbeit abnimmt, in dem z.B. ONVIF-Kameras fast automatisch gefunden und eingerichtet werden. Die Motion-Detection funktioniert sehr zuverlässig und auch ein zusätzlicher FTP-Upload ist möglich. Der Nachteil ist, dass es eben eine Windows-Programm ist und man somit nicht einfach die Oberfläche auf ein Smartphone holen kann.
Mit Linux hat man die Möglichkeit motionEye zu verwenden, dass man als Package installieren kann. Diese Lösung bietet eine Web-UI an, die sowohl auf Desktops als auch Smartphone gut funktioniert. Man muss aber teilweise RTSP-Urls per Hand eingeben und bekommt alle Einstellmöglichkeiten direkt und ungefiltert präsentiert. Dennoch ist die übersichtliche Ansicht egal ob auf dem Desktop oder dem Smartphone immer sehr gut und leicht und schnell zu bedienen. Wenn man also auch mal von Unterwegs einen Blick auf die Kamera-Stream werfen will, halte ich motionEye für die bessere Lösung.
Ein Fujitsu Thinclient mit x86-64 Prozessor
Variante ARM-SBC: Wer einen Raspberry PI oder Orange Pi hat (als Set zwischen 20 und 40 Euro) kann mit einer 32GB SD-Karte und motionEye OS sich eine gleichwertige Lösung in sehr günstiger, kompakter und stromsparender Version zusammen stellen. motionEye OS auf der SD-Karte am PC installieren, dann in den ARM-PC stecken und einschalten. Nach 1-2 Minuten kann man die Web-UI aufrufen und mit der Einrichtung der ersten Kamera beginnen. Die Downloads findet man hier : https://github.com/ccrisan/motioneyeos/releases
Orange Pi One Kompletset
Egal welche Variante man nimmt sollte der Computer nahe dem Router stehen und benötigt so kein WLAN sondern nur ein kurzes LAN-Kabel. Bei der PC-Variante braucht man noch einen Monitor, eine Tastatur und eine Maus. Bei der ARM-Variante reicht eine SD-Karte, weil die Einrichtung rein über die Web-UI erfolgen kann (SSH ist natürlich auch möglich, aber nicht zwingend nötig).
Da wir nun einen "Recoder" haben, mit dem wir USB- und ONVIF-Kameras bedienen können brauchen wir nur noch die Kameras und etwas Zubehör.
Wenn man dazu ein Orange PI One Set von AliExpress rechnet ist man sehr genau bei 200 EUR Gesamtpreis. Wenn man PoE-Hub und Adapter auch in China bestellt, kann man dort auch nochmal etwas Geldsparen. Die Kameras können auch direkt per FTP auf das NAS einer Fritzbox schreiben.
Indoor:
2x ieGeek FullHD WLAN (schwarz ist unauffäliger als weiß) = 110 EUR
Indoor muss eine Steckdose in der Nähe sein und man kann sich den ganzen PoE-Part ersparen bzw. einsparen. Aber es ist zu überlegen im Haus kleinere Kameras zu verwenden, die weniger direkt ins Auge stechen, wenn man nicht gerade dadurch einen abschreckenden Effekt erzielen will (in Ladengeschäften sollten Kameras immer gut sichtbar sein).
Wenn man die Kameras mit dem WLAN verbinden möchte ist die einfachste Einrichtungsart, die Kamera per LAN-Kabel einmal an den Router zu hängen und dann per Web-Browser auf die Kamera zu zugreifen und dort das WLAN einzustellen. Alle anderen Lösungen waren bis jetzt immer umständlicher oder funktionierten garnicht. Ich halte wenig davon die Kameras per Smartphone-App einzurichten, weil man gerade bei der Eingabe von Text und WLAN-Schlüssel mit einer echten Tastatur sehr viel schneller ist.
Wem 960p als Auflösung der Kameras reicht (selbst 720p ist im Indoor-Bereich oft ausreichend) kann bei den Kameras noch so um die 15 EUR pro Stück sparen.
Das wichtigste Werkzeug hier ist die Übersicht der Netzwerk-Geräte und IP-Adressen des Routers oder auch das Programm ONVIF Device Manager.
Während die Installation von motionEye auf einem ARM-SBC und iSpy auf Windows sehr einfach ist, ist die Installation von motionEye auf einem Mini/Tiny PC unter einem Ubuntu-System leicht aufwendiger. Dafür hat man die Vorteile, dass man ein komplettes Linux-System hat und den PC auf für andere Serveraufgaben verwenden kann oder den PC auf direkt mit einem großen Monitor verbinden kann und Live-Streams der Kameras anzeigen kann (localhost im Webbrowser öffnen und man hat seine UI). ARM-SBC können das an sich auch, aber hier sind oft Grafik und Leistung nicht dafür ausgelegt viele Aufgaben auf einmal zu erledigen.
Hier habe ich ein mal zusammen getragen wie man motionEye auf einem Fujitsu Futro S900 installieren kann. Dieser PC kostet um die 30 Euro bei Ebay und mit einer mSATA SSD und einem WLAN-Stick bekommt man extrem flexibelen kleinen und günstigen PC für viele Anwendungszwecke.
Danach kann man über den Port 8765 die motionEye Web-UI aufrufen.
Man kann ohne Probleme viele USB- und IP-Kameras anschließen und hat keine Probleme mit Updates und kompatiblen Kameras, was bei Komplettsets schnell passieren kann, weil hier alle ONVIF kompatiblen Kameras funktionieren. Während mein Setup mit dem Futro S900 Thin-Client eine eher eingeschränkte Leistung hat, kann man mit z. B. Lenovo Tiny-PCs und i-Serie CPUs auf kleine Geschäfte oder mittelgroße Gebäude und Gelände überwachen (mit ~10 Kameras).
Um bei ONVIF-Kameras die URL für den Video-Stream heraus zu bekommen hilft der ONVIF Device Manager.
RTSP-URL einer ONVIF-Kamera in motionEye
Hier sieht man wie eine ONVIF-Kamera per RTSP angebunden wird.
Wer iSpy verwendet, hat den Vorteil, dass auch eingebaute Microphone von Kameras ausgewertet werden können und bei bestimmten Geräuschen ein Alarm ausgelöst werden kann. Plugins für die Erkennung von KFZ-Kennzeichen oder QR-Codes gibt es auch.
Wenn man sich also für eine "Selbstbaulösung" entschiedet, kann man viel Geld sparen und bekommt zusätzlich noch einen sehr viel leistungsfähigere Recorder für einen Bruchteil des Geldes. Bei dem Preis für die Abus-Lösung (siehe den Techstage-Test), bekommt man einen refurbished PC mit i3 oder sogar i5 CPU und mehr Festplattenspeicher und kann sicher trotzdem die selben Kameras verwenden.
Wer kennt das Problem nicht? Der Java-Appserver ist schon beim hochfahren, während der DB-Server noch Daten importiert und Hibernate fängt an wild Exceptions zu werfen.
Die Lösung ist das Script wait-for-it, das einfach wartet, bis ein Server auf einem bestimmten Port erreichbar ist.
FROM openjdk:12-alpine
RUN apk add --no-cache bash
ADD utils/wait-for-it.sh /wait-for-it.sh
RUN chmod +x /wait-for-it.sh
Wenn man heutzutage einen neuen PC kaufen will, merkt man schnell, dass die Zeit der großen PC-Verkäufe und Angebote vorbei sind. Das was man momentan bei den üblichen Verdächtigen Geschäften vor Ort findet, kann man oft an zwei Händen abzählen. Im Internet gibt natürlich alles, aber auch da sind die Modelle mit denen geworben wird, eher extremer Einheitsbrei. Man hat oft die Wahl zwischen einem Allrounder und einem Gamer-PC. Der normale PC hat einen kleinen schwarzen Tower mit i3 oder i5 und onboard Grafik. Der Gamer-PC hat einen größeren Tower mit viel Licht, i7 und einer mittleren Gaming-Grafikkarte und ist dabei immer viel zu teuer.
Oft braucht man aber gar keinen so leistungsfähigen PC. Alles was man neu kaufen kann ist überdimensioniert und viel zu teuer. Bei mir kam die Anforderung einen kleinen PC für das Schlafzimmer zu organisieren, damit man dort vernünftig Youtube gucken kann.
Warum ein PC und keinen Fire TV Stick oder ein andere Android-Gerät oder direkt einen Smart-TV? Ganz einfach: kleinere HDMI-Sticks sind langsam, Android-Geräte sind meistens wirklich umständlich zu bedienen und deren Apps langsam und unübersichtlich, ein neues TV-Gerät ist unnötig teuer.
Zum Glück gibt es im Internet ja noch Ebay und dort gibt es kleine, unscheinbare PCs für sehr geringe Preise. Einen relativ kompakten PC bekommt man dort schon für 30 Euro. Ich habe mich für einen Fujitsu Futro s900n entschieden.
Natürlich ist die Hardware-Ausstattung jetzt nicht die Beste aber klang erst einmal brauchbar:
- AMD G-T44R 1,2 Ghz CPU
- 2GB DDR3 (max. 8GB)
- AMD/ATI Radeon HD 6250
- 1GB SSD (mSATA)
- 1x DVI + 1x DP
- USB 2.0 und 3.0 Anschlüsse
- 1GBit Ethernet
Was auffällt ist die sehr winzige SSD und das fehlende WLAN. Für den Einsatz als Media-Player muss also noch dazu bekommen:
- 32GB mSATA SSD
- USB WLan Stick
Was beides zum Glück sehr günstige Komponenten sind. Eine normale SATA SSD kann man in den PC sogar aus einbauen, wenn man sich ein passendes Adapterkabel für den Strom organisiert und bei der Halterung mit Klebeband behilft. Damit oder mit einem ESATA/USB3.0 HDD Gehäuse würde einem kleinen NAS auch nichts im Weg stehen und von der Leistung her würde der PC mit den kleinen bis mittleren Geräten von QNAP sicher noch mithalten können.
Als einen ThinClient kann man den PC natürlich auch verwenden... wenn man einen Terminal-Server hat. Ist ja der eigentliche Verwendungszweck und alles andere eigentlich die Ausnahme.
Unterstützt werden auf dem PC sowohl Linux als auf Windows. Beides ganz offiziell und an sich hängt es nur von der SSD ab, was man installieren kann. Ich würde wohl eines kleinen Linux gehen, da es dort alles gibt was ich brauche. Firefox oder Chrome für Youtube ist keine Problem. VLC für Sat-TV und DLNA ist auch bei beiden Systemen verfügbar. Es waren noch einfache Zeiten, als das OS noch irgendwie eine Rolle spielte. Heute ist es an sich egal ob man Windows oder Linux verwendet, wenn man nicht gerade Gamer ist.. oder Adobe-Software braucht.
Da ich leider keinen WLAN-Stick habe, bzw einen relativ alten nicht mehr finde, nehme ich erst einmal einen WLAN-Accesspoint. Der ist nicht schnellste aber für Youtube reicht der erst einmal.
Eine 32GB mSATA SSD habe ich noch von einem anderen gescheiterten Projekt (die SSD war dabei nicht das Problem, wie sich beim Test mit einem SATA-Adapter heraus stellte!).
Das vorinstallierte eLux-Linux auf der 1GB SSD hat zwar einen Firefox, aber der war nur in einer ESR 33 Version vorhanden und lies sich nicht wirklich einfach updaten. Die Version hatte noch keinen passenden Video-Codec für HTML5-Video dabei und Flash ist jetzt wirklich heutzutage keine Option mehr und auch das hätte ich erst einmal installieren müssen.
Also schnell die 32GB SSD rein und einen Ubuntu 18.04 LTS Installations USB-Stick fertig gemacht.
1GB SSD
32GB SSD
Der PC bootet direkt das Bootmenü vom USB-Stick und startete Ubuntu. Die Installation lief langsam aber stabil durch und nach ca. 30 Minuten war ein sauberes Ubuntu 18.04 installiert.
Youtube mit 720p lief jetzt nicht direkt flüssig. Mit 480p lief alles super und sah auch wirklich noch ganz ok aus. Der Unterschied zu 720p war minimal, bei dem was ich getestet habe. Wobei ich mir nicht sicher bin, ob es vielleicht am Grafikkartentreiber liegen könnte, dass der die Videobeschleuningung für den verwendeten Codec von Youtube nicht liefern konnte.
Mit einem DVI auf HDMI-Adapter ist der PC für seine Aufgabe als Media-Player für das Schlafzimmer gut gerüstet.
Zur Not kann man die USB3.0 Karte noch gegen eine Lowprofile NVidia Quadro austauschen, da der 2x PCIe Slot nach hinten hin offen ist und so auch PCIe 16x Karten passen, die dann zwar nur mit 2-Lanes laufen, aber damit immer noch ausreichend schnell sind für Media-Player.
Fazit
1,2GHz klingt wenig und ist auch wirklich nicht viel, aber für einfache Aufgaben reicht es und der Grafikchip holt doch einiges raus. Mit einer SSD sind Datenzugriffe ausreichend schnell und werden nur durch die langsame CPU limitiert.
Die 2GB RAM reichen für ein einfaches Linux + Firefox auch aus. Eingebautes WLAN wäre nett aber wäre limitierend, weil Ethernet + WLAN-Accesspoint sind einfacher an schnelle WLAN-Standards anpassbar und man bleibt nicht auf einem alten Standard hängen.
Update: Chromium läuft sehr viel performanter auf dem System als Firefox. Während Firefox auf Youtube öftersmal ruckelt, laufen die selben Videos in der gewählten Auflösung im Chromium vollkommen flüssig.
Update 2: Ein Wechsel von Ubuntu auf Linux Mint hat sich als sehr gut heraus gestellt. VLC mit Stream vom SAT-IP Server laufen ohne Ruckler oder andere Probleme. Auch die GUI reagiert sehr viel direkter als bei Ubuntu, auch wenn sie weniger für TV-Geräte auf einiger Distanz geeignet ist, als die von Ubuntu.
Ich habe ja lange nach einem guten Text-Editor für Linux gesucht.
- gedit: zu primitiv
- Geany: schelchte UI und ich muss neue Tabs vor dem Schließen speichern
- Atom: Nett und das mit dem Tabs und dem Schließen funktionierte FAST
Am Ende habe ich wieder Notepad++ mit Wine verwendet und bin damit echt sehr zufrieden. Nur leider ist es kein natives Linux-Programm.
Tab aufgemacht, was geschrieben, Editor geschlossen, wieder geöffnet UND alles war noch da! Er kann das was ich bis jetzt nur bei Notepad++ gefunden habe und sieht noch gut aus. Bis jetzt gefällt er mir sehr gut.
Wer hätte vor paar Jahren gedacht, dass einer der besten Editoren für Linux von Microsoft kommen wird?
Es klingt sehr viel komplizierter als es man Ende ist. Das Wichtigste ist es erst einmal XDebug auf der VM zu installieren. Ich habe da PHP7.1 und es erklärt sich an sich von selbst:
apt-get install php7.1-xdebug
Danach muss die /etc/php/7.1/mods-available/xdebug.ini bearbeitet werden. Wenn man nun davon ausgeht, dass die VM mit VirtualBox und einem Host-only Netzwerk in den Standard Einstellungen läuft ist der Host 192.168.56.1 . Die Datei sieht dann also so aus:
Bei mit zeigt shopware.localhost auf die VM und auf eine Shopware-Installation. Einen Breakpoint habe ich ganz an den Anfang von der shopware.php gesetzt.
Im Firefox verwendet ich das Addons Xdebug Session Cookie. PHPStorm hört auf Port 9000 nach Debug-Verbindungen. Wenn man nun shopware.localhost aufruft und das Addon aktiviert, wird auch sofort in PHPStorm dieses erkannt und er stoppt beim ersten Breakpoint, den man gesetzt hat.
Ist also in wenigen Minuten machbar, das für seine lokale Umgebung einzurichten.
Etwas komplexer ist es mit SSH und Portweiterleitungen, was aber ermöglicht ganz sicher ein Live- oder Staging-System zu debuggen und man muss nicht auf dem Server mit VI und echo/var_dump arbeiten, um heraus zu finden warum es zwar lokal super lief, aber nicht auf dem Server, obwohl die an sich total gleich sind. Kennt jeder.. oder?
Ich bin gerade dabei eine Lösung zu basteln, damit die Bilder und Videos der Überwachungskameras, die die über FTP auf dem QNAP NAS speichern, nach 5 Tagen automatisch löschen zu lassen.
Dafür muss man über SSH auf das NAS und die Cron-Table editieren.
So bald man sich über SSH verbunden hat merkt man auch, dass am Ende doch alles immer nur ein Linux ist.. außer es ist Windows.
Ich hatte viele Texteditor in den letzten 12 Jahren... Der Windows Editor, Phase 5, Textmate, EmEditor, Geany, Atom und Notepad++. Aber am Ende bin ich nur mit Notepad++ glücklich. Einfach schliessen und alles ist wieder da ohne dass man es speichern musste. Hab ich bei Atom nicht hinbekommen. Da klappte es nur immer für den ersten Tab alle anderen gingen verloren.
Jetzt bin ich sogar so weit gegangen und hab mir Notepad++ unter Linux installiert.. ich bin damit sehr viel schneller als mit Geany. Find & Replace funktioniert da irgendwie besser, schneller und einfacher als bei Geany.
Da es nicht gerade eine tolle Lösung ist, alle paar Tage die Let's Encrypt Zertifikate per Hand zu aktualisieren, sollte man sich einen Cron-Job erstellen.
Per Hand kann man hier mit alle Zertifikate aktualisieren, die bald ablaufen werden:
sudo letsencrypt renew
Den Cronjob kann auch ganz einfach anlegen.
sudo crontab -e
Und dann den Eintrag hinzufügen. Ich hab es mit vim gemacht.
Also mit den Pfeiltasten ans Ende der Datei. i drücken.
Wer sich einmal aus versehen in den vi verirrt hatte, weiß wie verwirrend dieser Text-Editor für die Befehlszeile sein kann. Die meisten nutzen vi meistens nur für einen Zweck.. das Bearbeiten von Config-Dateien auf einem Server über eine SSH-Session oder schnelle Anpassungen an Dateien, wenn man Dinge auf der lokalen Dev-Workstation nicht nachvollziehen kann. Dazu reichen zumeist Datei öffnen, Datei bearbeiten, Datei speichern und vi wieder verlassen.
Öffnen ist ganz einfach:
vi file.conf
Dann öffnet sich der vi und man kann über die Pfeil-Tasten schon mal die Position wechseln.
wenn man nun schreiben möchte drückt man i für insert-mode.
Nun nimmt man seine Änderungen vor.
Mit ESC wechselt man zurück in den Command-mode. Speichern geht über :w für write.
Danach kann man entweder mit i weiter bearbeiten oder gibt :q für quit ein.
An sich eine sehr logische Bedienung aus dem insert-mode und dem command-mode zwischen denen man hin und her schalten kann.
Meine meisten Email-Adressen sind ja nur Weiterleitungen. Beim Umzug meiner Domains auf meinen Server habe ich auch erst einmal alle umgezogen, die keine Email-Adressen haben. Das waren ein paar, aber dann war ich schnell bei denen mit Email-Adressen.
Damit ich nun auch hier einen sehr weichen Umzug hinbekomme, waren nun alle dran, die nur Weiterleitungen hatten.
Weiterleitungen sind mit Postfix wirklich einfach umgesetzt. Die DNS Einträge hat Netcup bei mir immer gleich schon mit eingerichtet, so dass ich dort nichts weiter machen musste.
Zu erst muss natürlich Postfix instaliert werden.
sudo apt-get install postfix
Danach einfach die Config-Datei von Postfix editieren. Die Datei findet man jeden Falls unter Ubuntu
hier:
Ich benutze Linux jetzt seit über einem halben Jahr bei der Arbeit und auch privat läuft auf einem Notebook Linux. Meine letzten Entwicklungen mit PHP und Java habe ich so entwickelt, dass sie sowohl unter Windows als auch unter funktionieren. Java und PHP machen es auch mehr als einfach, wenn man nicht auf irgendwelche DLLs angewiesen ist. Die RFID-Reader werden über Ethernet angesprochen und zum Glück gibt es beide SDKs nativ für Java.
Für Windows spricht eigentlich nur noch die Adobe Software. In allen anderen Fällen gibt es kaum einen Unterschied mehr. Das sehe wohl nicht nur ich so sondern fast alle. Linux Software wie Openshot 2.0 gibt es jetzt auch für Windows. Microsoft bringt den SQL-Server und jetzt auch die PowerShell für Linux raus. Die Bash gibt es ja auch für Windows.
Und seit es Windows 10 nicht mehr kostenlos gibt, ist der Vorteil von Linux, dass es kostenlos ist, wieder bedeutender geworden. Bei Entwicklern hat man den Vorteil, dass diese sowie so lieber ihre Rechner selbst Administrieren wollen und somit keine weiteren Kosten entstehen durch höheren Administrationsbedarf bei den Benutzern.
Aber auch bei den normalen Benutzern sollte Linux eigentlich eine gute Alternative sein. Die meisten Anwendungen wandern oder sind schon in der Cloud und damit reduziert sich das Betriebssystem schon fast auf einen Luncher für den Webbrowser. Firefox/Chrome und Thunderbird sind auf Windows sowie schon sehr verbreitet und somit ist eine Umgewöhnung fast nicht mehr nötig. Linux Mint sieht fast genau so aus wie ein Windowssystem und das Updaten der Software ist sehr viel zentraler und einfacher zu managen.
Linux ist wie auch Windows 10 sehr sparsam was die Hardware-Resourcen betrifft. Ein altes Notebook mit Pentium Dual-Core und 2GB RAM läuft mit Linux sehr gut und auch Probleme wegen veralteter Windows-Treiber sind gelöst.
Mit gebrauchter Hardware und Linux Mint sollte sich eine komplette IT-Infrastruktur für kleine Büros bauen lassen. Alte aber wieder aufbereitete Hardware ist günstig zu bekommen und Geräte von HP oder Dell auch oft in entsprechenden Stückzahlen an gleichen Geräten, so das man ein paar mehr Geräte kaufen kann, um bei Hardwareausfall gleich Ersatz zur Hand zu haben. Man kann ein Installationsimage erstellen und so Installationen in wenigen Minuten durchführen. Die Kosten sollten sich damit auf vielleicht 40% der Kosten von Neugeräten belaufen und für Internet, Email und Office reicht die Hardware immer noch mehr als aus. Die Leistung eines 10 Jahre alten PCs ist heute immer noch ausreichend. Ich habe meinen PC von 2006 nur gewechselt, weil HyperV darauf nicht lief.. was ich aber trotz neuen PC immer noch nicht verwende und einfach bei VirtualBox geblieben
bin.
Bei VirtualBox wären wir auch schon beim nächsten Punkt: Virtualisierte Server. Ein gebrauchter Server ist nicht teuer und wenn man die Server an sich in VMs laufen lässt, kann man auch immer mal schnell auf einen größeren Server upgraden ohne längere Ausfallzeiten der Systeme zu haben. Bei guter Planung sollte so ein Umzug auf einen neuen Server in 10 Minuten durch geführt sein. Für die meisten Server-Anwendungen braucht man nur eine einfache LAMP-Umgebung. Groupware wie Tine 2.0 bieten Email-Client, Kalender, Adressbuch und alles mögliche und lassen sich auch mit dem Smartphone nutzen. Wer komplette Office-Umgebungen wie Office 365 braucht findet bei OwnCloud und LibreOffice eine Alternative, die leider etwas kostet aber noch relativ günstig ist.
Aber genau wie auch bei Windowsumgebungen und neuer Hardware braucht man jemanden der alles einrichtet und installiert. Wer glaubt diese Kosten mit Windows umgehen zu können, wird sich schnell wundern. Deswegen würde ich keine höheren Administrationskosten bei Linux sehen im Vergleich zu Windows.
Deswegen auch nicht einfach alte Hardware in den Müll werfen! Mit Linux kann die Hardware noch einige Jahre gut weiter verwendet werden und man spart nicht nur sich Kosten sondern schon auch etwas die Umwelt damit. Wer es noch nicht versucht hat, sollte Linux mal eine Chance geben. Ich werde jedenfalls mal Collabora testen. Es wäre sicher eine Lösung, die gerade kleineren Firmen viele Kosten sparen kann.
Die erste Komponente für den 100 Euro Office Server ist schon angekommen. Die CPU hat 7 Euro gekostet. Der wird nur aus gebrauchten Teilen bestehen.. ich werde berichten.
Ich habe jetzt längere Zeit GitKraken benutzt. Ich sagte ja schon, dass wenn die noch etwas nachlegen werden, dann auch SourceTree überholen können. Seit der 1.6er Version ist es dann auch passiert. Übersichtlich, Pulls ohne Checkout, Konflikte direkt in GitKraken bearbeiten... und die Console sieht auch interessant aus.
Ich bin jetzt jedenfalls schneller mit GitKraken als mit SourceTree. UND es läuft unter Linux und Windows. Damit wird es noch "egaler" welches Betriebssystem man verwendet.
Unter Ubuntu < 16.04 PHP 7.0 zu installieren ist gar nicht schwer, wenn man erst einmal weiß, wie es geht. Man muss sich ein zusätzliches PPA einrichten und sonst nicht viel machen.
Damit ist PHP 7.0 an sich schon installiert. Das kann man sehen wenn die Version überprüft (immer die zuletzt installierte Version wird hier verwendet)
php -v
Wenn man nun eine Liste an Modulen haben will bekommt man diese so:
sudo apt-cache search php7-*
Wichtig ist, dass XDebug weiterhin unter php-xdebug zu finden ist und deswegen hier nicht in der Liste auftaucht. Also alles aus der Liste installieren was man braucht.
In den letzten Wochen und Monaten hat Microsoft viele Menschen verwundert. Der SQL-Server soll für Linux heraus kommen. Die Azure-Services sollen besser in Java-Umgebungen integriert werden und dafür wird Microsoft Mitglied der Eclipse-Foundation.
Microsoft veröffentlicht ein System für Switches auf Basis von Linux.
Das alles klingt nicht nach dem Microsoft wie man es noch vor ein paar Jahren kannte, das Opensource als Krebsgeschwür betitelte und als Reaktion auf Standards immer eine eigene Idee heraus brachte und sich beim IE nie um Standards groß kümmerte.
Dieses Microsoft existiert nicht mehr und kann auch nicht mehr existieren, denn die Zeiten haben sich geändert. Früher war Microsoft gleich bedeutent mit Windows und Windows war der PC. Heute sieht alles ganz anders aus. Apple kam zurück. Smartphones und Tablet verdrängten in vielen Bereichen den PC. Gerade ältere Menschen greifen lieber zum Tablet als ein Notebook zu holen oder sich vor den PC zu setzen. Vieles was man früher als Programm auf dem Dektop hatte ist heute ins Internet und in die Cloud gewandert. Opensource ist nicht nur bei Idealisten angekommen auch Regierungen und Firmen setzen auf Opensource und fördern dort ganz gezielt Projekte.
Anders gesagt dreht sich alles nur noch um Services und Anwendungen/Apps. Wo diese laufen ist nicht mehr wichtig oder anders gesagt, wenn sie nicht überall laufen sind sie keine Alternative für die man sich entscheiden kann. Eine Webapp die nur auf dem IE schließt sofort fast alle Tablets und Smartphones aus und damit die meisten Nutzer. Auch wollen sich Entwickler nicht mehr von einer Firma abhängig machen. Wenn meine Anwendung in einer Cloud-Umgebung nicht richtig skaliert oder zu teuer wird, wechsel ich. Denau so legt man sich nicht auf ein Betriebssystem fest. Mit Java, PHP oder anderen Sprachen muss ich mir keine Gedanken machen, auf welchen OS ich mich gerade befinde. Egal ob auf meiner lokalen Windows-Maschine, die ich zum Entwickeln habe, meinem Linux Testsystem, dass irgendwie in einer VM läuft oder am Ende per Docker in einer Cloud-Umgebung. Und wenn der Webdesigner auf seinem Mac die Oberfläche für mich optimiert, soll er sich nur den Branch aus checken und es soll bei ihm genau so funktionieren, wie bei mir.
Es gibt bestimmte Punkte nach dem sich entscheidet welches OS ich benutze:
* die Firma oder das Team gibt es vor
* Es ist die technisch beste Lösung
* ich kenne mich einfach damit besser aus
* ich mag es am liebsten
Am Ende ist es aber egal, weil ein Betriebssystem allein nichts aussagt. Es geht immer um die Programme und Anwendungen, die darauf laufen.
Momentan gibt es nur ein Programm wegen dem ich momentan erst einmal Windows vorziehen würde: SourceTree. Sollte es mal für Linux herauskommen oder die .Net Unterstützung unter Linux es zum Laufen bekommen ist das OS wirklich vollkommen egal. Für alte Anwendungen die ein bestimmtes OS voraus setzen gibt es ja VMs und die VM Umgebungen gibt es auch für alle Betriebssysteme.
Ich verwendete Ubuntu auf der Arbeit, Windows auf meinem Desktop und Mint auf meinen Notebook. Da ich aber überall Eclipse, Apache, MySQL, Notepad++, WinSCP und Firefox benutze, ist der Wechsel fließend und es ist mir am Ende egal, mit was ich gerade arbeite, weil ich den Unterschied kaum bemerke (außer von der Optik der Fenster).
Ich behaupte auch, dass man den meisten normalen Benutzern ohne Probleme ein Linux installieren könnte und es würde keinen Unterschied machen. Denn die Konfiguration eines Windows-Systems überfordert die genauso wie, wie die eines Linux-Systems. Die Fenster sehen etwas anders aus, aber.. Firefox und Chrome laufen dort genauso und OpenOffice oder LibreOffice sehen dort nicht anders aus, als auf Windows. MS Word und Excel haben viel Boden verloren, viele arbeiten privat nicht mehr damit und ich ich wundere mich doch immer wieder, wenn mir ein "Voll-Noob" was PCs betrifft einen Text schickt und es kommt eine odt-Datei
an.
Email ist sowie so komplett ins Web abgewandert und privat hat kaum noch jemand Outlook installiert.. wenn überhaupt noch mal Thunderbird. Aber an sich spielt sich Email nur noch übers Web und in Smartphone Apps ab.
Windows ist auch einfach nicht mehr der Markt wie früher. Windows 10 hat kaum jemand gekauft. Windows bringt nur noch im Enterprise-Bereich Geld. Nach XP (und dem kompletten Wechsel auf den NT-Kernel) kann es alles was der normale Benutzer braucht und es gibt keinen Grund eine neue Version zu holen. Neue Programm-Versionen werden natürlich immer verwendet, aber neue Windows-Versionen spielen für die meisten
keine Rolle.
Also ist Microsofts Schritt sehr gut zu verstehen. Windows ist nicht mehr die Welt und man will weiterhin seine Programme und Services verkaufen. Wo Opensource einen helfen kann, nutzt man dies und damit man überall vertreten ist, muss man sich an Standards halten. Wenn das nicht allein schafft, muss man eben auch mal Mozilla um Rat fragen.
Windows NT war schon immer ein tolles Betriebssystem, aber nicht so toll, das sich jemand darauf fest legen würde und damit Windows Server nicht wie Netware endet, muss sich Windows Seite an Seite mit den anderen Betriebssystemen einfinden. Denn Integration kann mehr Pluspunkte bringen, als ein oder zwei Feature mehr im Vergleich.
In meinem Job und auch privat, bin ich jetzt teilweise auf Linux umgestiegen. Auch den Post hier schreibe ich auf meinem Notebook mit Linux Mint. Ok.. trotzdem benutze ich dafür noch Notepad++. Für den habe ich unter Linux noch keinen Ersatz gefunden, bei dem ich den Editor einfach schliesen kann, ohne alles speichern zu müssen und bei dem alles wieder so ist wie als ich ihn geschlossen habe, wenn ich den Editor wieder öffne.
Aber insgesamt, habe ich festgestellt, dass ich mit Linux sehr gut auskomme. Die meisten Programme die ich verwende gibt es für Linux und für fast alle anderen gibt es einen guten Ersatz. Sowohl Eclipse als auch PHPStorm laufen perfekt unter Linux. In PHPStorm macht das Konsolen-Fenster jetzt auch richtig Sinn, weil die Linux Konsole doch sehr sinnvoller da ist als die primitive Konsole von Windows.
GIT läuft wie gewohnt. SourceTree vermisse ich auf Linux etwas, wenn auch die GIT-Integration von Eclipse sehr gut funktioniert und für das normale Arbeiten vollkommen ausreicht.
Firefox, MySQL, Apache.. alles unter Linux genau so wie unter Windows.
Wärend ich bei der Arbeit Ubuntu benutze, verwende ich privat Linux Mint. Wenn ich wählen kann, würd ich immer zu Linux Mint greifen. Es scheint mir etwa runder zu sein und der Cinnemon-Desktop gefällt mir sehr viel besser als die Unity-GUI von Ubuntu.
Auf meinem PC läuft weiterhin Windows 10 und ich werde dort auch erstmal dabei bleiben, weil um mal ein Spiel zwischen durch zu spielen ist Windows doch noch die bessere Wahl.
Auf jeden Fall ist Linux eine gute Umgebung um darin zu entwickeln und ich habe momentan mit Job und anderen Projekten sehr viel zu tun. Deswegen werden es im Blog wohl auch in den nächsten Monaten weniger Beiträge werden. Dafür werde ich versuchen mal wieder ein oder zwei längere Post zu verfassen und auch mal ein oder zwei kleine Tutorial-Videos dazu reinstellen.
Hier der erste Versuch: Wie man Notepad++ unter Linux verwendet.
Nicht jede Firma die gegründet wird ist eine IT-Firma oder ist in dem Bereich Bereich bewandert. Oft haben diese Firmen ganz andere Aufgaben, Sorgen und Probleme am Anfang als sich über IT-Infrastrukturen, Server und ihre Daten Gedanken zu machen. Meistens reichen die Überlegungen dahin, dass man eine Homepage, Email-Adressen und PC braucht.
Für Firmen mit 2-3 Mitarbeitern reichen diese Überlegungen auch meistens und weiter IT-Themen und -Probleme erledigt man einfach neben her. Bei einer Person reicht ein Standard PC mit DSL, ein kleines Homepage-Paket bei einem der üblichen Hoster (1und1 oder Strato) und die übliche Software (Libre- oder MS Office, ein Browser und ein Email-Programm wie Exchange oder Thunderbird).
Wenn man jetzt aber doch gleich am Anfang 10 Mitarbeiter hat, sieht die Welt wieder ganz anders aus. Aus dem Wunsch nach einer Homepage entwickelt sich dann die Frage: "Kann ich mich dann auf der Homepage auch einloggen und meinem Kalender und eine Emails einsehen?". In der alten Firma lief die Groupware im Browser und alles was im Browser läuft ist eben für viele eine Homepage.
Eine Groupware im Browser hat extreme Vorteile und wenn alles direkt über eine öffentliche URL zu erreichen ist (also so zu sagen in der Cloud liegt) löst es schon mal viele Probleme bei den Mitarbeitern, die bei Kunden sind, von Zuhause aus arbeiten oder auch alles immer auf ihrem Smartphone im Zugriff haben möchten. Auch ist die Administration einfacher, da auf den Client PCs nichts installiert werden muss und man somit nicht auf Betriebssystem, Updates, Laufzeitumgebungen und so achten muss. Ein relativ aktueller Webbrowser reicht.
Das erste Problem kommt direkt mit dem Wunsch nach einer Groupware. Ein kleines Homepage-Paket mit Shared-Hosting für ein paar Euro im Monat reicht hier meistens nicht aus, weil die Groupware-Lösungen gerne noch zusätzliche PHP-Erweiterungen hätten, was anderes als PHP benötigen oder auch der Hoster keinen direkten SMTP-Versand für Emails anbietet und ein Fallback auf die email-Funktion von PHP nicht wirklich den Anforderungen genügt. HTTPS ist dann auch nochmal ein anderes Thema...
Das ist kein so großes Problem, wenn nicht schon ein Paket und Domains geschafft wurden und nun weiterhin davon ausgegangen wird, dass der günstige Preis gehalten werden kann. Es ist schwer klar zu machen, dass Email-Adressen und alles für eine einfache Homepage vorhanden ist, aber man um beides zusammen zu bringen mehr Geld ausgeben müsse.
Außerdem ist mir auf gefallen, dass bei den günstigen Angeboten gerne auch mal Ausfälle mit zu berücksichtigen sind. Einmal eine halber Tage Emails weg, dann noch mal an einem anderen Tag ist die Homepage nicht zu erreichen. Wenn die Groupware nicht verwendet wird (weil Thunderbird auf den Desktops angenehmer ist) oder mal die Kalender nicht synchronisiert werden können, ist es nicht ganz so wild. Aber für eine Firma die mit Kunden kommuniziert oder wichtige Unterlagen per Email erhält, ist ein halber Tag ohne Email schon nicht wirklich schön.
Tine 2.0 hat sich da als relativ gute Groupware heraus gestellt, wenn man nur einen einfachen Webspace mit MySQL-DB hat. Man sollte keine Wunder bei der Leistung erwarten und es dauert teilweise bis z.B. CalDAV zum Laufen bekommen hat, aber es ist eine brauchbare Lösung für solch ein Problem und in der freien Variante auch wirklich noch sehr leistungsfähig, wenn man hauptsächlich Email und Kalender verwenden möchte.
Wenn wir nun den Teil erledigt haben geht es in die Firma und die dort vorhandene Infrastruktur. Auch hier fangen die Probleme an, wenn schon PCs,Notebooks und ähnliches gekauft wurden.
Denn auch hier wird aus der Sicht des normalen Anwenders gekauft. Ein Notebook gilt als cool, PCs kauft wo gerade mal einer günstig ist, weil am Ende sehen die zwar unterschiedlich aus sind aber ja an sich gleich. Es gibt sehr verlockende Angebote von gebrauchten Rechnern bei EBay, die kommen dann vorinstalliert mit Windows bei einem an. Spätestens hier sollte man sich als unbedarfter Anwender/Firmen-Chef/Verantwortlicher Hilfe holen. Das erspart einen später viel Stress und Kosten. Man muss immer davon aus gehen, wenn man am Anfang etwas mehr Geld investiert, spart man es in späteren Zeit wieder ein.
Bei solchen PCs gilt es zu beachten: * ist Windows nur installiert oder ist wirklich eine Lizenz dabei? Wenn ja, sollte man etwas in der Hand haben, dass es auch beweist! (Ebay-Verkäufer muss Unterlagen und Rechnungen unbedingt mitliefern)
* ist der Admin-Account aktiviert und ist ein Passwort vergeben, dass der IT-Verantwortliche und eine Person vor Ort (falls IT von Extern kommt) kennt und sonst niemand?
* hat jeder Benutzer einen eigenen Account mit einem Passwort, dass nur er kennt? Wütende Ex-Mitarbeiter können bei kleinen Firmen schon einen großen Schaden anrichten, wenn sie bei nicht geschützten PCs einfach mal eine unbekanntes Passwort setzen! (Hier hätte zur Not der Admin-Account geholfen, wenn er aktiviert worden wäre)
* einmal feststellen, ob die Rechner reparierbar sind. Also ob Festplatten im Notfall einfach entnommen werden können und es normale Netzteile sind, falls mal eins ausgetauscht werden muss.
Wenn vor dem Bestellen geplant wird: * baugleiche PCs und baugleiche Notebooks kaufen.
* pro Standort mindestens einen Ersatz-PC haben, damit in Falle eines Ausfalls die Person schnell weiter arbeiten kann.
* ein einheitliches Festplatten-Image aufsetzen (Betriebssystem mit Admin-Account, VNC, Benutzer-Programmen, etc.)
* und auch gleich dann Werkzeug, Kabel, USB-Stick und Rohlinge mit bestellen, wenn man schon mal dabei ist
Nun hat jeder Mitarbeiter seinen PC. Bei mehr als 2 PCs kommt jetzt das Problem mit dem Datenaustausch. Emails zu verwenden (am Besten noch über den Hoster der Homepage) kann mit dem Datenschutz Konflikte verursachen (Verschlüsselung und so). Also wird es am Besten über das LAN getauscht. Wenn man nun Außenstellen hat, müssen diese per VPN angebunden werden. Also muss es auf jeden Fall ein DSL-Anschluss für Firmen sein.. nichts was sonst für private Kunden gedacht ist.
Meistens hat man dann auch WLAN. Das ist für Smartphones (man will ja nicht zu viel Telefonkosten darauf verursachen) und Tablets praktisch bis notwendig. Notebooks, PCs und Drucker sollten, wenn sie am Arbeitsplatz stehen immer mit Kabel angeschlossen sein. Kabel ist weniger fehleranfällig und schneller auch bei vielen Geräten. Wenn man keine riesigen Dateien wie Filme oder CAD-Files kopieren muss oder VLANs möchte, reicht 100Mbit vollkommen aus und 8-fach Switches gibt es ab 10 Euro. Auch bessere 16-fach Switches sind nicht ganz so teuer. Wichtig ist auch hier ein paar Ports in Reserve zu haben. Wenn WLAN nicht bis in die letzte Ecke reicht einfach einen günstigen WLAN-Repeater kaufen. Die funktionieren wirklich gut und erhöhen den Radius enorm.
Wenn man an den Arbeitsplatz-PC sparen möchte, dann lieber überlegen, ob man nicht Libre-Office an Stelle von MS Office verwendet oder ob ein Linux-System wie Ubuntu nicht auch für die Mitarbeiter geeignet ist. Aber das hängt auch sehr von der anderen Software ab, die verwendet werden soll. (In 90% aller Fälle würde so ein Linux-System aber ausreichen, gerade wenn die Software in der Cloud oder anderweitig im Browser läuft).
Jetzt kommt das harte Thema. Da wird man den Firmen-Chef schocken. Es geht um einen Server und seine Kosten. Der Server soll als Fileserver agieren und am Besten noch die Anwender-Profile speichern. Eigener Email-Server und Homepage und Groupware von dort aus zu betreiben ist erst einmal nicht so wichtig. Aber falls mal ein Email-Archiv benötigt wird kommt es auch noch auf einen zu und da kann man ja schon mal zukunftssicher Planen. Mehrere physikalische Server in einer kleinen Firma sind einfach nicht nötig, da die Server sich die meiste Zeit langweilen werden. Also VMs verwenden. Da braucht man ein System das 3-4 VMs laufen lassen kann, genug Festplattenspeicher hat, wo man remote die VMs überwachen kann und dann am Ende noch einfach Sicherungskopien erstellen kann. So etwas wäre ideal.
So etwas gibt es auch von QNAP. Mit Festplatten kommt man schnell auf über 3000 Euro. Das ist im Grunde nicht viel, für das was es leistet (und für eine kleine Firma wird es reichen). Außerdem braucht man nicht zwingend ein 19"-Rack oder komplexe Kühlungen. Auch die Administration scheint so einfach zu sein, dass man in Notfällen für kleine Dinge wie eine VM neu zu starten, auch einen der Mitarbeiter anlernen kann. 4TB würde am Ende auch reichen.
Linux mit Samba kann einen kleinen Windows-Server ersetzen (wenn man kein Exchange braucht). Aber auch sonst sind Windows-Serverversionen nicht mehr so teuer. Turnkey-Linux bietet für solche Zwecke auch VM-Images direkt an. Nichts für den normalen Anwender auch wenn es eine Web-GUI gibt. Hier muss einfach jemand sein, der sich mit sowas auskennt (Linux und/bzw. Firmennetzwerke an sich).
Da hilft ein jugendlicher Sohn eines Mitarbeiters oder so. Da muss jemand bezahlt werden. Soll Datenschutz gewährleistet sein, dann muss auch entsprechend bezahlt werden. Da es aber kein Vollzeitjob ist, ist >100 Euro/h auch nicht ganz so schlimm, auch wenn er sich erst einmal nach sehr viel Geld anhört. Gute Dienstleistungen kosten und Probleme mit Arbeitsausfall kosten am Ende immer mehr.
Ist wie mit einem Raid-System. 2 Festplatten sind teuer als eine, aber die 2. Festplatte ist günstiger als wenn da jemand 4h versucht Daten zu retten oder noch eine Firma dafür beauftragt werden muss.
Am Ende ist noch die Frage nach der Datensicherung. Hardware, Strategie und Lagerung. Ich mag BD-Rohlinge. Bänder sind auch super, aber etwas komplexer in der Handhabung. Archiv-Lösungen von Sony sehen auch gut aus sind aber sehr teuer. Aber auch hier immer ein zweites Laufwerk vorhalten (das ist bei BluRay sehr günstig). Gut zu erklären ist das Problem der Lagerung mit Feuer und Überschwemmungen. Natürlich abhängig vom Ort. Aber Feuer kann immer ausbrechen, egal wie gut alles abgesichert ist. Auch wenn alles versichert ist, will man ja keine Daten verlieren.
Hier kommen noch mehr Kosten hinzu, aber auch hier sollte man sich vorher Gedanken machen und planen und nicht erst reagieren, wenn was passiert ist.
Es ist auch absolut keine Lösung die Mitarbeiter ihre Daten vom PC auf einen USB-Stick sichern zu lassen. Alles im Profil ablegen und das auf dem Server speichern und dann Sicherungskopien vom Server erstellen. Auch wenn mal ein PC kaputt geht, kann er einfach ausgetauscht werden und der Mitarbeiter meldet sich wieder an und arbeitet im idealen Fall da weiter wo er aufgehört hat.
Ausfälle von PCs und Notebook werden dadurch sehr viel weniger schlimm und verursachen nicht mehr als die Reperaturkosten (kein Arbeitsausfall, niemand der Daten von defekten System retten muss).
Wenn man nun mit so einer Aufgabe betraut wird, konnte ich hoffentlich etwas helfen, dass man eine kleine Liste hat, auf was man achten muss. Wenn man selbst eine Firma gegründet hat und das alle eigentlich selbst machen wollte, weil es erst einmal nicht so komplex aussah, sieht man jetzt hoffentlich, dass man sich wenigstens einmal mit einer kompetenten Person aus dem Bereich unterhalten sollte, bevor man etwas in Angriff nimmt.
Ich musste vieles hier erst einmal lernen, im Besonderen, dass solche Probleme auch wirklich auf treten, wie sie hier teilweise beschrieben sind. Man darf den Leuten, die so etwas machen, auch keinen Vorwurf machen, da sie aus ihrer Sicht das Beste tun. Ihnen fehlt die Erfahrung in solchen Komplexen Systemen, um solche möglichen Probleme zu erkennen.
Heute mußte ich eine VirtualBox VM mit Oracle Linux 5.5 (Developers Day Variante) anpassen. Die Partition mit dem Home-Verzeichnis war voll und mußte angepasst werden.
Also erstmal über den Manager für die Laufwerke eine Kopie als VDI erzeugt. Dauert .. geht aber gut.
Dann aus dem VirtualBox Verzeichnis heraus die neue Größe setzen:
vboxmanage "c:\.....\disk2.vdi" --resize 20000
Also auf 20GB vergrößert.
Nun muss nur noch die Partition angepasst werden. Nach einige Versuchen und googeln habe ich diese Anleitung gefunden:
GParted lief bei mir in der 0.17.0-4 Version. Eine aktuelle wollte nicht starten. Aber damit ging es leicht.
Erstmal eine neue VM mit der ISO und der disk2.vdi erstellt. Dann starten und alles so lassen wie vorgeschlagen. Resize wählen. Per Drag and Drop die Größe anpassen und dann auf "apply" drücken. Warten.
VM ausschalten und die Oracle Linux VM wieder starten. Alles super!
Blog-entries by search-pattern/Tags:
Möchtest Du AdSense-Werbung erlauben und mir damit helfen die laufenden Kosten des Blogs tragen zu können?