Blog: Latest Entries (15):



Projekt FAMICOM.. eine kleine Odysse

Mal etwas, was nichts mit Programmieren oder IT an sich zu tun hat :-)

Man mag es kaum glauben, aber ich habe nie einen NES besessen. Ich hatte einen Gameboy, einen SNES, einen Megadrive 1, einen Megadrive 2, sogar mal einen Atari 2600, natürlich auch einen C64, C16, Plus4, Atari 800(!), TI 99/4A, Atari ST 520, Atari ST 1024, Amiga 1200, und im PC-Bereich alles von einem Commodore PC20 (8088) über einen Bull Unix-Server hin zu Xeon Workstations (und bin dabei geblieben). Später kam Gamecube, N64, Wii, Wii U und sogar eine PS3 hinzu.. wobei ich die PS3 bis immer noch nicht wirklich mag. Aber eines hatte ich nie: einen NES.

Ich kann mich noch gut an den NES eines Freundes erinnern. Super Mario 3 und Probotector waren super Spiele und wir haben ganze Tage in diese Spiele investiert.

Was mich am meisten davon abgehalten hat mir einen NES zu kaufen waren immer die sehr hohen Gebrauchtpreise, die gerade Händler dafür haben wollten. Eine Konsole, mit Controller und einem Spiel kostete ohne Probleme mal 80 Euro oder mehr. Für eine Konsole, die mal Millionen-fach gab, fand ich diese Preise nicht wirklich gerecht fertig. Ein Mega Drive kostete gerade mal die Hälfte und ein Mega Drive war seltener anzutreffen und der Zustand der Konsole meistens sehr viel besser als bei den NES-Konsolen, die ich so gesehen hab. Fehlende Klappe, abgeriebene Beschriftungen und gebrochene Gehäuse schien nie ein Problem zu sein und es wurde immer noch ein hoher Preis verlangt.

Aber vor ungefähr 3 Monaten begann mein Projekt "Famicom".

bbcode-image


Auf Ebay fand ich ein Angebot für gerade mal 80 Euro inkl. Versand für einen Famicom mit 5 Spielen, Verpackung, Anleitung und er sollte auch noch funktionsgetestet sein. Er kam direkt aus Japan, aber die Lieferzeit war jetz kein Problem. Ich wusste, dass man den originalen Famicom nur über den Antennen-Eingang an den Fernseher anchließen konnte, aber ich sah da jetzt kein Problem darin. NTSC sollte jeder moderne Fernseher ja hinbekommen und sonst würde ich mir eben eine TV-Karte kaufen. Meine letzte TV-Karte, die ich besaß war eine FAST Movie Machine 2, die noch einen ISA-Slot brauchte und in einem Pentium 60 Rechner unter Windows 95 lief. Die Movie Machine hatte einen TV-Tuner, Video-In, S-Video-In und konnte jeden TV-Standard, der überhaupt mal jemanden auf der Welt nur in Sinn gekommen war. Also war ich der Meinung, wenn das damals alles schon kein Problem war, sollte es heute ja noch einfacher sein.

bbcode-image


Ein kleiner Sprung zurück in der Zeit. Jeder kennt es wohl noch, dass man seine Konsole irgendwo mithin nehmen durfte, meistens dass man dort beschäftigt war.. man schloss die Konsole an und dann begann das nervigste am Ganzen: Der Sendersuchlauf. Oft hing das Signal irgendwo zwischen zwei Senderplätzen und man musste noch mit der manuellen Feinabstimmung ran. SNES brauchte einen festen Senderplatz und man mußte immer umstecken. Der Megadrive mit seinem Umschalter ersparte einen das Umschalten aber auch brauchte man den Senderplatz. Es war nervig, doof und die Signal-Qualität war meistens auch alles andere als gut.
Warum hat man das gemacht? Die alten Fernser hatten nur einen TV-Tuner und keine Video-Eingänge. Später hätte man Video-Kabel nachkaufen müssen, aber deren Existenz war den wenigstens bekannt und Antennenkabel waren den Eltern bekannt und ein Cinch-Kabel.. nee.. zu modern, zu seltsam.. man blieb lieber beim bekannten.

bbcode-image


Deswegen haben viele ein Problem alte Konsolen an modernen TV-Geräten zum Laufen zu bekommen. Antenen-Kabel ran und dann wird die Konsole nicht gefunden. Selbst der alte NES hat einen stink-normalen Video-Ausgang. Ein einfaches Kabel ran und es läuft. Wer noch versucht mit einem Antennenkabel etwas anzuschließen, liebt es wohl einfach sich selbst zu quälen.

bbcode-image


Sega-Konsolen können sogar sauberes RGB ausgeben, das auch dazu benutzt wird z.B. die Mega-CD Erweiterung mit dem Video-Signal der Konsole zu versorgen und dann mit Overlays zuarbeiten, wenn die Erweiterung zum Einsatz kommt.

Um es kurz zu machen.. der Famicom kam an und ich bekam ihn an keinen meiner TV-Geräte zum laufen. Ich wusste aber auch nicht, ob der Famicom überhaupt richtig lief (jeder kennt ja das Problem mit den Modulen und dem Pusten, damit die Konsole mit dem Modul startete). Eine LED hat der Famicom nicht. Hat der Strom? Sieht man nicht. Ich war aufgeschmissen. Also wollte ich dann die Lösung mit der TV-Karte ausprobieren. Also einfach schnell eine TV-Karte bestellen.. dachte ich. Nach 2 Tagen suchen hatte ich genau eine TV-Karte gefunden die NTSC-J unterstützte und bei EBay bezahlbar war. Es war eine FAST Movie Machine 2... FAST war wohl einfach die einzige Firma, die mal etwas weiter gedacht hatte... leider ja nicht mehr existent.

Eine Woche später hatte ich mich dann durch Angebote für einen AV-Mod gearbeitet. Selber löten wollte ich nicht, weil so ein Famicom doch nicht einfach zu ersetzen ist und ich wenig Erfahrung im Löten habe. Ein Stecker an ein Kabel löten bekomme ich noch hin, aber auf Platinen rumlöten wollte ich dann doch nicht.

Ich hatte ein Angebot für einen RGB-Umbau für 170 Euro. Micro-Controller gesteuert und mit haufenweise Zusatzfunktionen. Ich brauch keinen Micro-Controller der mehr Leistung hat als die CPU der Konsole und der Preis war mir einfach zu hoch. Ein normaler AV-Umbau würde man nicht mehr machen hieß es. Also suchte ich weiter. Beim nächsten gab es wieder keinen normalen einfachen AV-Umbau mehr, aber dafür kein RGB oder so, sondern einfaches Video-Signal und es würde auch die Stromversorgung ausgetauscht. Das mit der Stromversorgung hat mich doch sehr überzeugt, da ich den alten Bauteilen nach den Jahren nicht mehr ganz traute und man hat eine LED! Auch war der Umbau optisch wirklich toll. Der alte RF-Modulator wird ausgebaut, dann ein Teil des Gehäuse entfernt und mit einer passenden Blende versehen. Es gibt einen Aufkleber der perfekt zur Optik des Famicom passt. Das alles dann auch zu einem Preis von 69 Euro. Ich überlegte nicht lange.

bbcode-image


bbcode-image


Nach ein paar Emails war klar, dass sobald der neue AV-Umbau verfügbar sei, ich die Konsole einschicken würde. Es dauerte ein paar Wochen aber dann ging die Konsole auf die Reise. Und war dann auch schnell wieder da. Angeschlossen.. und.. nur ein grünes Bild. Nichts zu machen. Überall nur ein grünes Bild. Laut Internet lag es wohl am Modul, aber jedes Modul zeigte diesen Effekt. Zwei Emails später ging der Famicom wieder auf die Reise. Wie sich herausstellte, war es wohl ein Problem mit dem Modul-Slot. Noch mal Reinigen und dabei fiel auch auf, dass das Microphone des zweiten Controller ein Rauschen im Ton verursachte. Also wurde das Micro kurzer Hand auch gleich einfach gekappt. Sinnvoll nutzen kann ich es sowie so nicht.
Eine Woche später kam der Famicom wieder bei mir an. Super toller Kontakt, hat mich nicht extra gekostet und dann noch mal alles gecheckt wurde, ist wirklich super.

bbcode-image


Also der Famicom war wieder bei mir und gleich an den TV angeschlossen. Strom ran, Video-Kabel ran.. einschalten.. und.. ein wirklich gutes Bild. Scharf, nicht verwaschen... wieso hat man sich so lange nur die RF-Signale angetan?

bbcode-image


Ach ja.. ich habe ja damit angefangen, dass ich nie einen NES besessen habe.. ich hab mir dann doch zwischendurch noch mal einen gekauft. Ist wie man auf den Fotos sieht leicht beschädigt, aber läuft ohne Probleme und war relativ günstig.
Für die Mühen mit meinem Famicom und den Umbau möchte Andreas König von Donkings's Konsolen-Service danken. Echt super Arbeit und sehr günstig. Kann ich nur empfehlen. Als nächstes steht dann bei mir an die DBZ-Spiele
für den Famicom zu spielen und zu hoffen, dass es auch ohne Japanischkenntnisse geht.

Entwickler in der freien Natur (für den Job)

Auch wenn sich immer noch das Gerücht hält Entwickler würden Tag für Tag vor ihrem Rechner in schlecht beleuchteten und belichteten Räumen sitzen.. NEIN.. das stimmt nicht, manchmal findet man sie auch mit ihrem Notebook unter Regenschirmen im strömenden Regen auf Marktplätzen oder Rennstrecken. Spätestens wenn ein System das erste Mal wirklich benutzt wird, sind auch die Entwickler dabei.

bbcode-image


Dabei sollte man auf einige Dinge achten:


  • Eigenes und schnelles Notebook mit IDE dabei haben. Denn wenn etwas Probleme macht, kann es gleich direkt Bugfixen und da man nie genug Zeit hat, sollte es ein schnelles Notebook sein.

  • Regenschirm, Regenjacke und alles dabei haben um sich und das Notebook vor Regen zu schützen

  • 25m-50m Netzwerkkabel, weil man nie weiß, ob man wirklich mit dem Notebook an der richtigen Stelle sitzt oder man andere Hardware doch vom Notebook entfernt aufbauen muss

  • Kabeltrommel und Verlängerungskabel, sowie Stift und Papier dabei haben. Schnelle Notizen sind immer mal nötig.



Wenn man darauf achtet überlebt der gemeine Entwickler auch ohne Probleme die oben beschriebene Zeit.

Das tollste wäre natürlich ein Notebook, dass einfach Regen übersteht und keinen extra Schutz bräuchte!

PHP7 und die Session

Das Verhalten von Sessions haben sich in PHP7 etwas geändert. Jedenfalls hatte ich das Problem jetzt schon mehrfach, wobei es lokal mit einer älteren 7.0.0 noch nicht auftrat. Mit einer 7.0.7 und einer 7.1 trat es dagegen immer auf.

Es kommt ja vor, dass man während session_start() z.B. durch einen eigenen Class-Loader schon versucht auf Daten aus der Session zu zugreifen. Hier wird man schnell merken, dass zwar die Einträge in der Session schon sichtbar sind, aber alle vom Typ UNKOWN sind. Ein Array oder Boolean aus der Session zu lesen, funktioniert
also noch nicht.
Bei meinem ClassLoader habe ich es einfach so gemacht, dass er nicht die schon gespeicherten Pfade aus der Session verwendet, solange die Session nicht komplett rekonstruiert wurde (unserialized). Sobald die Session wieder da ist, kann ich wieder auf die schon hinterlegten Einträge zugreifen und muss nicht mehr im Dateisystem meine Klassen suchen, sondern habe wieder mein Array mit Klassen/Pfad Zuordnungen.

bbcode-image

MySQL: DDL und Transactions

Das ist jetzt nicht wirklich eine große Entdeckung und ist eigentlich klar, aber auch wenn in der Beschreibung von MySQL nur steht, dass einige Statements nicht mehr mit einem Rollback zurück genommen werden können, wenn man ein DDL-Statement nach einem start transaction; ausführt, bedeutet es einfach, dass die Transaction danach einfach commited wird und alles danach nicht in einer Transaction läuft.

Wenn man sich als bei größeren Imports oder Datenverarbeitungen eine Tabelle zum Auslagern von Daten erzeugt, sollte man das immer zuerst und außerhalb der Transaction machen. Auch wenn man mit PDO arbeitet, muss man darauf achten.

bbcode-image


Sich extra Tabellen anlegen ist gut für Dinge, die länger laufen und besonders wenn sie länger laufen als die Timeout-Zeit von PHP oder des DB-Treibers. Den gerade MySQL locked alle Rows, die während einer Transaction geschrieben und auch gelesen werden. Wenn nun jemand in so eine Row schreiben möchte, die in einer langen Transaction auch nur gelesen wurde,kann es schnell zu Problemen kommen.
Erst einmal sollte man sowie so Stammdaten und Bewegungsdaten trennen. Damit minimiert sich das Problem schon mal etwas.

Am Ende kann man auch das Isolation-Level ändern, aber das sollte immer das letzte sein, was man versuchen sollte.

Eigenes Lightweight Logging (PHP)

Wenn ich eine Lib oder ein Framework sehe, kommt bei mir immer die Frage auf: "Wie macht man so etwas?" Das gipfelte heute darin, dass ich ein kleines Logging-Framework geschrieben habe. Etwas an
Log4j erinnernd aber erst einmal nur mit Output in eine Datei. Andere Outputs könnte man noch integrieren durch Appender-Types.

bbcode-image


Die LoggerFactory

class XWLoggerFactory{
private static $config=[];
private static $appenderCache=[];

/**
* @return XWLogger
* @param string $clazz
*/
public static function getLogger($clazz){
if(count(self::$config)==0 && file_exists("system/config/log.json")){
self::$config=json_decode(file_get_contents("system/config/log.json"),true);

foreach(self::$config["appenders"] as $appender){
self::$appenderCache[$appender["name"]]=$appender;
}
}

$appenders=[];
$levels=[];

foreach(self::$config["classes"] as $cla){
if(preg_match("/^".$cla["name"]."/i", $clazz)){
foreach($cla["appenders"] as $app){
$appenders[]=self::$appenderCache[$app["name"]];
$levels[]=$app["level"];
}
}
}

return new XWLogger($clazz, $appenders, $levels);
}
}


Der Logger

class XWLogger{
const ALERT="alert";
const CRITICAL="critical";
const ERROR="error";
const WARNING="warning";
const INFO="info";
const NOTICE="notice";
const DEBUG="debug";

private $clazz="";
private $appenders=[];
private $levels=[];

private $values=[
"alert" => 6,
"critical" => 5,
"error" => 4,
"warning" => 3,
"info" => 2,
"notice" => 1,
"debug" => 0,
];

public function __construct($clazz, $appenders, $levels){
$this->clazz=$clazz;
$this->appenders=$appenders;
$this->levels=$levels;
}

/**
*
* @param string $type
* @param string $msg
* @param \Exception $e
*/
public function log($type, $msg, \Exception $e=null){
foreach($this->appenders as $key => $app){
if($this->values[$this->levels[$key]] >= $this->values[strtolower($type)]){
$dateFormat="Y-m-d h:i:s";
if(isset($app["dateformat"])){
$dateFormat=$app["dateformat"];
}
$ip="";
if(isset($app["remoteip"]) && ($app["remoteip"]===true || $app["remoteip"]=="true")){
$ip=" [".$_SERVER["REMOTE_ADDR"]."]";
}
$content = strtoupper($type).$ip." [".date($dateFormat)."]: ".$msg;
if($e!=null && $app["exceptionFullStackTrace"]){
$content.="\n".$e->getTraceAsString();
}
if(!file_exists($app["filename"])){
if(!file_exists(preg_replace("/[a-zA-Z0-9_.]+$/Uis", "", $app["filename"]))){
mkdir(preg_replace("/[a-zA-Z0-9_.]+$/Uis", "", $app["filename"]));
}
}
file_put_contents($app["filename"], $content."\n", FILE_APPEND);
}
}
}
}


Die Config-Datei (system/config/log.json) for den aoop-PageLoader

{
"appenders":[
{
"name":"default",
"filename":"system/log/aoop.log",
"dateformat":"H-m-y h:i:s",
"remoteip":"true"
}
],
"classes":[
{
"name":"XWFastPostProPageLoader",
"appenders":[
{
"name":"default",
"level":"warning"
}
]
}
]
}


Eine Nutzung mit einer einfachen Warning

XWLoggerFactory::getLogger(self:class)->log(XWLogger::Warning, "a warning!");

PHP Basics

Wer sich mal etwas mit Zend VM, Objekten in PHP beschäftigen möchte oder wissen will wie Funktionen in PHP funktionieren (mit Stack und allem anderen) sollte sich mal diese Artikel ansehen:

http://jpauli.github.io/2015/02/05/zend-vm-executor.html

http://jpauli.github.io/2015/01/22/on-php-function-calls.html

http://jpauli.github.io/2015/03/24/zoom-on-php-objects.html

Mir haben die Artikel einen wirklich tieferen Einblick in PHP ermöglicht und ich verstehe jetzt einiges besser. Gerade auch wenn es um Performance geht.

Neo4j 3.0: Import Verzeichnis ändern

Wer sich mit CSV-Importen in Neo4j 3.0 versucht wird schnell merken, dass die angegebene File-URL sich irgendwie immer auf das Neo4j Verzeichnis bezieht auch wenn man sich auf das Root Verzeichnis bezieht. Der Fehler liegt nicht an der File-URL, sondern an einer Einstellung in Neo4j, wo als default Verzeichnis das eigene import-Verzeichnis gewählt ist und die File-URL sich nur auf Dateien innerhalb dieses Verzeichnisses bezieht.
Man kann einfach in der conf/neo4j.conf das import Verzeichnis von import auf / (Linux) ändern und es verhält sich wieder wie in der 2.x Version.

Intel Xeon Mainboard und Lüfter auf voller Power

Wenn die Lüfter bei einem Intel Mainboard (z.B. einem S5520) nach dem Piepsen beim Start plötzlich extrem aufdrehen und sehr laut werden, liegt es wohl daran, dass noch ein falsches Gehäuse konfiguriert ist.
Das Board hat gewisse Vorgaben, welche Gehäuselüfter in welchem Gehäuse angeschlossen sein müssen. Wenn nun einer dieser Lüfter fehlt (oder auch nur an FAN 2 und nicht an FAN 3 angeschlossen ist...) geht das System von einem Ausfall aus und dreht alle Lüfter auf, um den Ausfall zu kompensieren.

bbcode-image


Bei dem Wechsel des Boards aus einem Intel-Servergehäuse in einen normalen Tower fehlen dann meist das Frontpanel, der Sensor und die Gehäuselüfter oder sind anders verteilt, da weniger Lüfter an der Front angebracht sind.

Um nun die Konfiguration auf ein Gehäuse des Typs "other" zu ändern muss man sich den gesamten BIOS-Stack downloaden und auf einen USB-Stick ins Root-Verzeichniss kopieren.

bbcode-image


Diesen anschließen und über den Bootmanager in die interne EFI-Shell booten. Der Stick wird automatisch erkannt.

bbcode-image


Dann einfach das Script ausführen lassen und allen Schritten folgen. Fehlendes Front-Panel ist egal und wenn gefragt wird, ob und was alles man konfigurieren möchte immer alles neu konfigurieren.
Wenn man durch ist, sollten die Lüfter wieder mit normaler Geschwindigkeit laufen.

PHP: HashMaps und Objekte, Grundlagen und Implementierung

Gerade in der letzten Zeit mit PHP7 hat sich wieder einiges in der PHP-Welt getan und einiges hat damit einen großen Schritt nach vorne gemacht. Betroffen davon sind z.B. die Bereiche der PHP-Arrays (was im GRunde ja eigentlich HashMaps sind) und der Objekte. Es gibt ein paar wirklich gute und Ausführliche Artikel zu den Themen, die sich mit den Grundlagen beschäftigen. Dies sind keine Grundlagen für Anfänger sondern gehen wirklich in die Tiefe und man sollte beim Lesen auch keine Angst vor etwas C-Code haben.

Besonders der Bereich mit den Packed Hashmaps ist sehr interessant, weil dort erklärt wird, wie man ein fast echtes Array in PHP bekommt, das ohne Translation-Table und die Erzeugung von Hashes auskommt sondern wird einfach 0-n als Index verwendet und dies direkt auf ein entsprechendes C-Array umsetzt. Das spart etwas Speicher, aber auch sehr viel CPU-Zeit und bringt mehr Performance. Bevor man also als Index irgendwelche Ids oder so verwendet sollte man noch mal überlegen, ob man das wirklich benötigt oder ein einfaches und schnelles Array doch von Vorteil wäre.

http://jpauli.github.io/2016/04/08/hashtables.html
http://jpauli.github.io/2016/01/14/php-7-objects.html
http://jpauli.github.io/2015/03/24/zoom-on-php-objects.html


Backups und Blurays

Da sich bei mir im letzten Jahr nebenjobtechnisch viel bewegt hat und ich meine privaten Projekte sehr reduziert habe und mich verstärkt auf wenige einzelne Projekt konzentriere, habe ich die alten Daten oft kopiert, gesichert und nochmal wieder heraus gesucht.
Erst gestern fiel auf, dass bei dem ganzen hin und her eine style.css einer alten Firefox OS App nicht mit kopiert wurde, weil das Build-Script einmal nicht richtig gearbeitet hatte. Also musste ich das original Projekt wieder raus suchen, wo die Datei drin lag.

Ich gehöre sowie so zu den wohl wenigen Personen, die auch privat wirklich viele Sicherungskopien anlegen und dabei nicht einfach auf eine externe Festplatte setzt.
Eine meiner externen Festplatten ist erst vor einer Woche durch Katzenpischi so sehr beschädigt worden, dass wohl die Controller-Platine einen Knacks weg bekommen hat. Wenn ich noch mal eine genau baugleiche Festplatte finde, werde ich nochmal versuchen die Platine auszutauschen und auf die Daten zuzugreifen.

bbcode-image
Die defekte Festplatte


Der Verlust der Festplatte an sich, ist mir sogar relativ egal in dem Fall und es ist eher die Herausforderung als wirklich die Notwendigkeit die Daten doch nochmal zu kopieren.
Denn 99% der Daten von der Festplatte habe ich auf Blurays gesichert.

Blurays haben meiner Meinung nach folgende Vorteile:

* Es sind WORM-Medien, sind nach dem Brennen also unveränderbar
* ...also sicher gegen Trojaner, die einen die Daten verschlüsseln
* ...sicher gegen Trojaner, die einen die Daten löschen
* relativ Wasser fest, wenn eine Bluray mal ins Wasser fällt und mal etwas darin liegen bleibt, macht es nichts
* Stoßfest, kann also auch mal vom Tisch fallen
* keine Mechanik, die bei Nicht-Nutzung sich festsetzen kann
* keine Mechanik die mit der Zeit verschleißen kann

Natürlich gibt es beim Preis Unterschiede und bei normalen Blurays kann man nur 25GB pro Rohling brennen. 50x 25GB gibt es aber schon für etwas über 23 Euro. Das sind dann 1,25TB für 25 Euro. Das ist im Vergleich zu Festplatten nicht so teuer wie immer behauptet wird.
Auch die schlechten Erfahrungen mit den ersten DVD-Rohlingen klingen immer wieder mit. Brennen und 2 Wochen später nicht mehr lesbar. So was kenne ich auch. Aber bei Blurays hatte ich bis jetzt solche Probleme nicht. Die ließen sich bis jetzt immer ohne Probleme und ohne dass eine Stelle der Disc mehrmals gelesen werden musste, wieder auslesen. Trotzdem muss man auch wie bei DVDs auf einige achten:

* Trocken lagern
* Bei gleichmäßiger Temperatur (~20°) lagern
* vor direkter Sonneneinstrahlung schützen
* keine Cover drauf kleben oder mit komischen Stiften beschriften
* die Unterseite ist geschützter als die Oberseite.. also nicht falsch herum hinlegen! Ein Kratzer auf der Oberseite ist
viel schlimmer als auf der Unterseite!
* Gute Rohlinge kaufen
* Einen guten Brenner verwenden (hier nicht sparen)

Ich benutze zum Lagern eine Licht dichte Schublade und die Blurays und DVDs lagern in ihren Spindeln, die zum Teil mit Sprühlack abgedunkelt sind. Nicht mit Schwarz sondern mit heller oder reflektierender Farbe, damit sie sich bei Sonneneinstrahlung nicht aufheizen. Außerdem sind die Spindeln auch wirklich gut
abgedichtet, dass man sich um Feuchtigkeit und Staub wenig Gedanken machen muss.

Aber auch hier gelten die allgemeinen Regeln, wie für alle Backups:

* Redundante Datenspeicherung, lieber etwas mehrmals brennen als nur einmal (ein Datenträger kann immer kaputt gehen)
* Räumlich möglichst vom Rechner getrennt lagern (am besten sogar in einer anderen Stadt... oder wenigstens Haus)
* Immer mal wieder die Backups kontrollieren (Nachdem Schreiben auf das Medium sowie so noch mal einen Datenvergleich laufen lassen)
* Sicher aufbewahren (ein Safe wäre natürlich besser als eine Schublade.. falls man so etwas zu hause hat, dann auch verwenden)
* Immer alles sichern... das was man für unwichtig hält wird das sein, was man nachher braucht wenn es weg ist
* Inhalte alter Datenträger auf neue Kopieren

Gerade der letzte Punkt ist wichtig. Ich habe vor paar Monaten viele CDs auf Bluray kopiert. Von über 50 CDs ging gerade mal eine nicht und dort konnte auch nur eine Datei nicht mehr gelesen werden. Es war natürlich eine Datei, die ich dann doch gerne gehabt hätte, aber vermutlich hab ich das Foto auch noch mal zusätzlich auf einer DVD und zur Not müsste ich das Foto neu scannen (ein Vorteil der alten analogen Fotografie.. wenn sie nicht so extrem teuer wäre).

Da wir in einer Welt leben, wo die Daten mehr wert sind als die Hardware auf der sie gespeichert sind und gerade mit der aktuellen Flut an Schädlingen, die einem die Datenverschlüsseln wollen, sollte der Fokus bei der Datensicherung, wieder vermehrt auf optische WORM-Medien gelenkt werden, weil diese auch für den normalen Benutzer viel leichter richtig zu handhaben sind, als Festplatten, USB-Sticks oder Bänder.

GIF vs WebM

GIF ist so fest mit der Web-Kultur der 90er Jahre verbunden wie kaum eine andere Technologie. Die alten Homepages waren voll von blinkenden Sternen, glitzernden Herzen und komischen "Under Construction"-Schildern. Während man gerade erst MPEG-Videos entdeckte, die man dann downloaden konnte, sich aber nicht wirklich in HTML-Seiten integrieren ließen, brachten GIF-Animationen Bewegung in Seiten und ließen alles nicht ganz so statisch wirken.
Auch heute sind GIF-Animationen weit verbreitet und eine eigene kleine Kunstform. Während früher kleine gezeichnete Animationen den größten Teil davon ausmachten sind es heute oft kurze Szenen aus Videos und Filmen aller Art.

Doch GIF ist nicht wirklich das beste Format für Animationen. Mit dem Video-Tag aus HTML5, bei dem man ohne Probleme die Controllers ausblenden kann, einen Autostart festlegt und eine Loop festlegt, kann man nun auch moderne Video-Formate verwenden. Die Vorteile sind schnell genannt:

- mehr Farben
- höhere Framerate
- moderne Kompression und damit kleine Dateien
- höhere Auflösungen

Natürlich gibt es auch viele Vorteile:

- kompatibel bis in die "Steinzeit"
- keine zusätzlichen Codecs, weil fast alle Webbrowser sie nativ unterstützen
- viele Programme zum erzeugen von GIFs
- laufen selbst auf einem alten Win95 Rechner mit Pentium 90
- einfach zu erzeugen

Das größte Problem sind nicht mal die 256 Farben, da es ja nicht so ist dass man nur insgesamt 256 Farben zur Verfügung hat, sondern nur 256 verschiedene Farben aus der Palette der 24-Bit Farben wählen kann. Man hat also eine Tabelle mit Index mit maximal 256 Einträgen in der ja Eintrag eine 24-Bit Farbe (True-Color) hinterlegt ist. Das hat den Vorteil, dass der Eintrag "5" natürlich weniger Speicher verbraucht als "[255,255,255]", aber führt natürlich dazu, dass man die Anzahl der Farben eines Frames eine MP4 Videos auf 256 Farben reduzieren muss. Das geschieht mit der Quantization. Das an sich funktioniert sehr gut und 256 Farben sehen besser aus, als man denkt, solange alle verwendeten Farben nahe bei einander liegen in er 24-Bit Palette. Nur wenn man einen großen Bereich der 24-Bit Palette abbilden will, wirken die Farben fleckig und unpassend.

Früher liefen die Animationen auf auf einen 486er und man brauchte nur ein Modem. Das hatte seine Gründe. Einmal waren sehr wenig Farben in den Bildern (max. 8-10) und man hatte maximal 12 Bilder (das war schon eine aufwendige Animation) und hohe Delay-Werte welche Frameraten von 2-3 Frames pro Sekunde zur Folge hatten. Ich habe gelernt, dass man mit 6 fps man schon gute Animationen erzeugen kann, wenn man ein Video als Ausgangsmaterial hat, aber man dann schon schnell in den Megabyte-Bereich kommt bei der Datei. Weniger Farben ist meistens keine Option.

Eine Alternative zu GIF ist WebM, wo man nicht 10MB für die Animation hat sondern ~900KB und dabei noch mehr Farben hat. Leider funktioniert WebM nicht im IE, sondern nur im Firefox und Chrome/Blink-Browsern. Es können schon viele Programme WebM erzeugen, aber man kann nicht einfach ein paar Layer in GIMP anlegen und das als WebM-Video speichern. Als GIF-Animation könnte man es speichern.

Trotzdem würde ich WebM heute immer vorziehen, wenn ich eine Animation einbauen müsste. Erzeugen im Webbrowser geht im Chrome oder Vivaldi aufgrund der nativen WebP-Unterstüzung sehr schnell, was ich mit MP4toGIF.com gut zeigen kann. Firefox ist da sehr viel langsamer, weil noch eine extra WebP-Codierung in JavaScript erfolgen muss.

Um GIF wieder etwas konkurrenzfähiger in MP4toGIF.com zu haben werde ich mich daran machen einen alten Trick einzubauen. Der nicht gerade neue Trick besteht darin nicht jedes Frame der Animation voll zuspeichern, sondern immer nur die Unterschiede zum vorher gehenden Frame zu speichern und den Rest des Frames mit der Transparenz-Farbe aufzufüllen. Damit reduziert man die Farbanzahl und die Speichergröße des Frames. Früher wo das Bild aus großen Farbflächen bestand ging das sehr gut. Jetzt muss sich zeigen, ob bei einem Videobild wirklich noch genug Bildbereiche statisch bleiben um einen ähnlichen positiven Effekt zu erhalten.

Ich werde berichten...

Passwort Hash-Algorithmus wechseln

Viele System hashen ihre Passwörter immer noch einfach mit MD5. MD5 ist seit längerer Zeit nicht mehr wirklich sicher und ohne Salt sollte man heute sowie so nicht mehr arbeiten. Eines der großen Probleme von MD5 ist, dass es sehr schnell ist. Wenn man Checksums für Dateien erstellen möchte ist es ideal, aber gerade bei Brute-force Angriffen ist ein langsamer Hash-Algorithmus von Vorteil, weil er die Zeit und damit den Aufwand extrem in die Höhe treibt. Salts tun das selbe für Wörterbuch Attacken und Rainbow-Tables.

Wenn man nun auf etwas sicheres Wechseln möchte ist es gar nicht so schwer. Man muss nicht die Passwörter der Benutzer vorliegen haben. Denn bei jedem Login liegt das Passwort für kurze Zeit in der Login-Methode sowie so als Klartext vor. Hier ist also der beste Punkt, um die Änderungen vorzunehmen. Es gibt nur eines dabei zu beachten.

Am Besten fügt man der User Entity ein Version-Flag hinzu, dass man verwendet um festzuhalten welche Hash-Variante gerade verwendet wird. 0 wäre dann einfaches MD5. Es sollte Integer sein, weil boolean einfach zu wenig ist und es mit der Zeit mehr als zwei Möglichkeiten für das Passwort geben wird... ich muss nochmal umbauen.
Wenn der Benutzer sich also einloggt und das Flag auf 0 steht, bedeutet es, dass man den Passwort-Eintrag in der Datenbank aktualisieren muss. Der Login muss dann eben alle möglichen Kombinationen aus Version Flag und Hash-Methode unterstützen. Flag und Hash-Methode immer zusammen, um alles noch sicher zu halten.. ob es ohne wirklich unsicher wäre, müsste man noch mal durch denken, aber verkehr es abzugleichen ist es sicher nicht.

Nun haben wir schon mal unseren neuen Hash, der gesetzt wird, sobald sich der Benutzer das nächste mal einloggt. Jetzt fehlt der Hash und dazu ist nicht viel zu sagen.

bbcode-image


NUR niemals den Benutzernamen als Salt verwenden! Denn das würde bedeuten, dass man bei einer Änderung des Benutzernamen auch immer den Passwort-Hash neu setzen müsste und wenn der Admin den Namen des Benutzers ändert, hat er das einfach nicht. Das Salt kann ein Zufallscode sein und mit in der Entity gespeichert werden, würde der Name ja auch und es geht ja nur darum das Berechnen der Hashes aufwendiger zu machen und nicht Security through obscurity zu betreiben. Hier muss ich auch noch mal nacharbeiten :-)

PHP7.0 installieren unter Linux (Ubuntu)

Ich habe mich dabei an http://tecadmin.net/install-php-7-on-ubuntu/ orientiert.

Unter Ubuntu < 16.04 PHP 7.0 zu installieren ist gar nicht schwer, wenn man erst einmal weiß, wie es geht. Man muss sich ein zusätzliches PPA einrichten und sonst nicht viel machen.


sudo add-apt-repository ppa:ondrej/php
sudo apt-get update
sudo apt-get install -y php7.0


Damit ist PHP 7.0 an sich schon installiert. Das kann man sehen wenn die Version überprüft (immer die zuletzt installierte Version wird hier verwendet)


php -v


Wenn man nun eine Liste an Modulen haben will bekommt man diese so:


sudo apt-cache search php7-*


Wichtig ist, dass XDebug weiterhin unter php-xdebug zu finden ist und deswegen hier nicht in der Liste auftaucht. Also alles aus der Liste installieren was man braucht.


sudo apt-get install php7.0-mysql php7.0-json php7.0-xml php-xdebug


Nun muss PHP7.0 nur noch aktiviert werden. Ich gehe mal davon aus das momentan eine PHP5-Version aktiv ist.


sudo service apache2 stop
sudo a2dismod php5
sudo a2enmod php7.0
sudo service apache2 start


Danach ist der Apache wieder da und läuft mit PHP7.0

Wer ein aktuelles Linux Mint verwendet muss unter Umständen noch das PHP7.0 Apache Modul nach installieren und auch den ganzen Kleinkram.

Older posts:

Möchtest Du AdSense-Werbung erlauben und mir damit helfen die laufenden Kosten des Blogs tragen zu können?