Der großartige Horst Evers in seinem Buch Mein Leben als Suchmaschine:

Das neue Zentrum, also das neue Gehirn unserer Küche, werden nämlich intelligente Kühlschränke sein. Kühlschränke, die selbstständig feststellen, wenn Butter oder Milch ausgehen, und das dann direkt online nachbestellen. Seit Jahren im Gespräch, jetzt sind sie wohl bald serienreif und sollen auf die arglose Menschheit losgelassen werden.

Diese Kühlschränke machen mir ernsthaft Angst. Denn wenn diese Technologie in etwa so gut funktioniert wie die restliche Elektronik in meinem Haushalt, dann.. [..] Und die weiteren Schritte werden folgen, wie in der Kommunikationselektronik.

Sind die neuen Herrscher erst einmal installiert, beginnen die Demütigungen.

Vermutlich wird man die online bestellte Milch bald mit einem komplizierten Kopierschutz ausrüsten, so dass man diese Milch dann nur noch in der eigenen Küche trinken kann. Sobald man mit ihr die Küche verlassen will, wird sie nicht mehr funktionieren und sofort ausflocken. Natürlich wird man aber auch nur online bestellte Milch in diesen Kühlschrank stellen können, andere Milch wird dort sofort sauer werden. Wie das genau funktioniert, ist zwar völlig unklar, aber sie werden einen Weg finden.

Und dann kommen die neuen Betriebssysteme. Betriebssysteme, für die wir jedes Jahr einen neuen, noch intelligenteren Kühlschrank kaufen müssen. Und wenn nicht, dann können mit unserem alten Online-Kühlschrank plötzlich gar keine frische Vollmilch bestellen. Sondern nur noch Monate alte H-Milch. Und schließlich werden die ersten aufgeben und sich in ihren Innenstadtwohnungen eine Kuh und sechs Hühner halten.

Sun hat Ende der 90er Jini mit dem Slogan “die vernetzte Kaffeemaschine” der staunenden Öffentlichkeit präsentiert. Zum praktischen Einsatz im Haushalt kam es allerdings nicht, u.a. weil Sun sich nicht vorstellen konnte, dass eine Java Virtual Machine zu fett für den Einbau in eine Küchenmaschine sein könnte. Immerhin wurde der vernetzte Toaster das Thema meiner Diplomarbeit. Fazit: Die IT-Industrie forciert den vernetzten Haushalt, weil sie ein neues Absatzfeld braucht, aber haben will ihn eigentlich keiner. 🙂

c't vdr
Illustration: http://www.tsamedien.de für c’t

Die e-tobi vdr Binaries für Ubuntu sind nun vollständig: Ab jetzt stehen alle drei Varianten Standard, Multipatch und Extensions für i386 und amd64 zur Verfügung.

Die drei vdr-Sektionen unterscheiden sich durch die verfügbaren Plugins und die aktivierten Patches, im Wiki gibt es weitere Details, was diese bedeuten.

Das Repository auf hanno.de wird ggf. noch auf einen anderen Server umziehen. Schaut im Blog vorbei, falls der Download der Pakete nicht mehr klappt.

Im folgenden Beispiel – ähnlich wie bei e-tobi beschrieben – bitte #SECTION# ersetzen durch standard, multipatch oder extensions.

   The e-tobi vdr binary packages for Ubuntu are now complete. You can choose between the three flavours of vdr from e-tobi: standard, multipatch or extensions. Packages are available for i386 and amd64.

The differences between the three vdr-sections are the plugins and the patches used in vdr. Some patches are described on the English wiki, but the German vdr wiki page is more complete.

The repository on hanno.de may move to a different location in the future. If the download stops working, please return to this blog.

In the following sample setup, replace #SECTION# with standard, multipatch or extensions.

# /etc/apt/sources.list.d/vdr-etobi-hanno.list
# SECTION = standard | multipatch | extensions
deb http://www.hanno.de/vdr-experimental hardy base backports addons vdr-#SECTION#
deb http://packages.medibuntu.org/ hardy free non-free

# /etc/apt/preferences
Package: *
Pin: origin www.hanno.de
Pin-Priority: 1000

Viel Spaß! Have fun!

vdr ist ein sehr beliebter und sehr praktischer, linux-basierter digitaler Videorekorder für DVB-Fernsehen mit hohem WAF.

Das Team von e-tobi.net hat daraus eine an Debian angepasste Distribution gebacken, die in Deutschland auch als c’t vdr bekannt ist.

Die vdr-Pakete von Ubuntu sind grob von e-tobi abgeleitet, aber e-tobi ist aktiver, bietet mehr Pakete und häufigere Updates. Es lag also nahe, deren Pakete zu Ubuntu zu portieren.

Dank der geduldigen Hilfe von Tobias Grimm ist es nun so weit, dass die meisten e-tobi Quellpakete auch unter Ubuntu sauber compilieren. Auf geht’s:

  vdr is a very popular, linux-based digital video recorder software with lots of interesting features and a high WAF.

The e-tobi.net team has created a binary distribution for Debian that is known in Germany as c’t vdr.

Ubuntu comes with its own vdr binaries, some based on e-tobi, but the e-tobi team offers more packages and updates them more often. Obviously, I wanted their packages on my Ubuntu-based TV PC.

Thanks to Tobias Grimm’s help, most of the e-tobi sources can now be compiled for Ubuntu without additional patches. Here we go:

# /etc/apt/sources.list.d/vdr-etobi-hanno.list
deb http://www.hanno.de/vdr-experimental hardy base backports addons vdr-multipatch
deb http://packages.medibuntu.org/ hardy free non-free

# /etc/apt/preferences
Package: *
Pin: origin www.hanno.de
Pin-Priority: 1000

Noch ist das alles sehr, sehr beta. Ich habe wenig Erfahrung mit Debian-Repositories, möglicherweise wurden Pakete falsch übersetzt, möglicherweise sind für Ubuntu falsche Abhängigkeiten drin. Deshalb wären erste Tester hilfreich.

Bei mir ist diese vdr-Version mit ein paar wenigen Plugins (epgsearch, live, skinsoppalusikka) stabil im Einsatz, installiert auf einem Ubuntu Server-System ohne X mit einer Budget- und einer FF-DVB-Karte.

Herzlichen Dank für Tests und Rückmeldungen, gerne auch im vdr-portal.

Nachtrag: Die Pakete sind jetzt für i386 und amd64 verfügbar.

  This is still very very beta. I know little about creating debian repositories, some packages may be compiled with the wrong options, some may have broken dependencies. So please help beta-testing them.

This version of vdr is in use on my TV PC, running the Ubuntu server distribution without X with a budget dvb and a full-featured dvb card. With a few plugins (epgsearch, live, skinsoppalusikka), it has been stable so far.

Any help testing and improving these packages is very welcome. You’re also invited to join the (German) discussion on vdr-portal.

Update: Packages now available for i386 and amd64.

“…keiner der Teilnehmer hatte es geschafft, die Bildschirmausgabe seines Laptops am Beamer zu konfigurieren.”

(via Kollegen)


Foto von Kai Nehm

Foto von leralle via flickr
Foto von leralle via flickr

Vor 10 Jahren erlaubte sich Aaron Koenig einen kleinen Spaß mit einer Mitmach-Website für seinen Song Schick mir Dein GIF!

Surfpop für Internetsurfer inkl. Schweineorgel-Solo. “…aber bitte nicht mehr als 120K!”

Damals jobbte ich als Student bei der von Aaron mitgegründeten Agentur Lava und programmierte einen Bilder-Upload für die Website zum Song. Aus den so gesammelten Bildern wurde später ein Plattencover gestaltet. Ein großer Spaß, Web 2.0 gab’s lange vor der Erfindung des Buzzwords, nur waren die Teilnehmerzahlen geringer.

Das Lied war als kostenloser Download verfügbar und ist heute leider in der Versenkung verschwunden, man findet nur noch die alten Presseberichte mit toten Links, aber nirgends die nach wie vor coole Musik.

Das muss sich ändern. Zum zehnjährigen Jubiläum also das Revival:

Aaron Koenig: Schick mir Dein GIF! (MP3)

“Information does not want to be free. Information wants to be tied up and spanked.”
via

“Anything that is in the world when you’re born is normal and ordinary and is just a natural part of the way the world works. Anything that’s invented between when you’re fifteen and thirty-five is new and exciting and revolutionary and you can probably get a career in it. Anything invented after you’re thirty-five is against the natural order of things.”
Douglas Adams

Zufälle gibt’s.

Vor kurzem Chaosradio entdeckt, hörte ich gestern in der S-Bahn den älteren Podcast über Retrofuturismus.

Gregor Sedlag, einer der beiden Gesprächsgäste, hat gerade auf der re:publica einen Vortrag zum Ende der Science Fiction gehalten. Christian Heller hat aus dem gleichen Podcast einen Vortrag zur Technischen Singularität gemacht.

Ich war nicht in Berlin und habe beide Vorträge nicht gesehen, aber vermutlich decken sie sich mit den Thesen, sie in dem Podcast diskutieren.

Angeblich leben wir in einer Zeit der Hyperbeschleunigung: Nie zuvor in der Geschichte sollen die Innovationszyklen so kurz gewesen sein wie heute, alles wird exponentiell schneller. Einige Futurologen prophezeien deshalb eine Technologische Singularität.

Science-Fiction Autoren könnten da nicht mehr mithalten, Sci-Fi-Konzepte würden schneller Wirklichkeit als je zuvor, neue Themen gäbe es eh nicht mehr, damit, so Gregor und Christian, sei Science-Fiction langweilig und obsolet geworden.

Obwohl die Podcast-Teilnehmer die Technologische Singularität als quasi-religiös bezeichnen, übernehmen sie kritiklos die Aussage der Hyperbeschleunigung und warnen am Ende des Gesprächs sogar vor den katastrophalen Auswirkungen der vielleicht bald kommenden Singularität.

Einige Monate vorher fiel mir ein Buch von Bob Seidensticker in die Hände, das genau dieser These widerspricht: Future Hype – The Myths of Technology Change.

Das Buch ist eine nicht wirklich stringente Sammlung von Zitaten und (teilweise ermüdend oft wiederholten, teilweise leider auch falschen) Anekdoten, aber Seidenstickers Argumentation überzeugt mich trotzdem.

Seidensticker erklärt, dass es kein exponentielles Innovationswachstum gibt, sondern kurze, heftige Schübe.

Diese Innovationsschübe erleben die zeitgenössischen Beobachter als revolutionären, unglaublichen, alles verändernden Wandel. Dafür hat er schöne Beispiele aus verschiedenen Epochen. Immer in der Geschichte haben die Menschen die aufregenden Innovationsschübe im Moment des Schubs überschwänglich extrapoliert. “Wenn das so weitergeht, werden wir bald…”, diese Aussage hörte man zu jeder Zeit technologischen Umbruchs.

Aber wir haben bei solchen Vorhersagen immer wieder schlicht vergessen, dass so ein Schub auch irgendwann endet. Die Entwicklung dieser Technologie stagniert, das eben noch “exponentiell” wirkende Wachstum ist vorbei.

Seidensticker verweist (ein wenig zu) gern auf das Atomzeitalter. Damals ging man naiv davon aus, dass “in Kürze” sämtliche Energieprobleme gelöst sind und alles – vom Automobil bis zum Staubsauger – in “wenigen Jahren” von einem eingebauten Atomreaktor betrieben sein wird.

Aber es ging eben nicht immer so weiter, wir haben keine sauberen Mini-Atomreaktoren, keine Jetpacks, keine Flugautos und keine Untersee-Highways gebaut.

Irgendwann ist die einst noch revolutionäre Technologie so normal geworden, dass wir das Ende, die Stagnation des Innovationsschubs gar nicht mehr bemerken. Stattdessen gibt es zwischenzeitlich einen neuen, spektakulären Innovationsschub in einer anderen Technologie, der unsere volle Aufmerksamkeit auf sich lenkt. So bekommt man das Gefühl einer sich ständig beschleunigenden Zeit.

Thesen wie die der Technischen Singularität hat es schon immer gegeben. Schon vor Generationen wurde erwartet, dass man “in Kürze” alles erforscht, erfunden, entdeckt und die universelle Weltformel gefunden haben wird. Das Ende der Geschichte war nie so nah wie jeweils heute.

Vermutlich werden sich zukünftige Retrofuturisten über das ständige Betonen der angeblichen Hyperbeschleunigung unserer Zeit ebenso amüsieren, wie wir über die falschen Vorhersagen der Industrie-Propaganda aus der Wirtschaftswunderzeit lachen können.

Bei jedem bedeutenden Innovationsschub kam die naive Hoffnung auf, dass diese Technologie die dringendsten Probleme der Welt abschaffen, Kriege unnötig machen und damit universellen Weltfrieden bringen kann. Der Katzenjammer folgt dann erst später: Wo ist z.B. das bessere Zeitalter, das uns das “alles verändernde” Internet bringen sollte?

Ist Science Fiction damit am Ende?

Nein, aber in welchem Alter ist SciFi für den Leser interessant? Als Teenager habe ich SciFi verschlungen, heute kaufe ich mir Sachbücher. Viel spannender.

truth-in-advertising1.png

Die Suche nach einem Kalenderserver bleibt weiterhin erfolglos.

Merkwürdig, dass alle Open-Source Groupware-Lösungen irgendwie immer gleich alles auf einmal wollen: Kalender, Adressverwaltung, integrierter Webmailclient, Projektplanung und optionale Anbindung an den Kantinenplan.

Wo also ist der einfache, geradlinige Open-Source Kalenderserver, der den ganzen Quatsch weglässt und nur dieses eine tut:

Termine speichern?

Der Kalender sollte sich mit einen standard-konformen Client wie iCal oder Thunderbird/Lightning über mehrere Computer (z.B. in der Firma und zu Hause) synchronisieren lassen & ich will meinen Kollegen Einblick oder Zugriff auf meinen Kalender geben können.

Was mit iCal und Thunderbird/Lightning bereits geht: Die Kollegen sollen sich gegenseitig über ihren Client zu Terminen einladen können. Termineinladungen aus Outlook/Exchange, die ich von Kunden oder externen Kontakten gelegentlich kriege, sollen sich über meinen Client importieren lassen.

Gibt’s das?

Aktuell verwenden wir Google Calendar und entsprechende Synchronisierungstools für Lightning, das läuft ganz gut. Aber ich lege meine internen geschäftskritischen Daten nicht gerne auf einem fremden Server ab, selbst wenn der Serverbetreiber behauptet, nicht evil zu sein.

Das Hamburger Abendblatt hat am Dienstag alle Wahllokal-Ergebnisse abgedruckt – und die Ergebnisse zweier Parteien vertauscht gelistet. Heute schreibt die Redaktion:

“Eine Bitte um Entschuldigung: [..] Diesmal haben wir die Daten nicht per Hand, sondern über eine Software eingelesen. Und was passiert? Da, wo GAL in der Liste steht, tauchen die Prozentzahlen der FDP auf – und umgekehrt. [..] Unsere Leser können wir nur um Entschuldigung bitten.”

Leider eine lahme Ausrede, denn die Abendblatt-Redaktion verwendet seit sehr vielen Jahren ein vollständig EDV-gestütztes Redaktionssystem, irgendwo ist also immer eine Software zwischen Redakteur und Zeitungspapier. (Kaum zu glauben, dass die Zahlenkolonnen noch bei der letzten Wahl von Hand übertragen wurden.) Vermutlich hat da also nur jemand die Software falsch bedient, anschließend hat’s niemand geprüft und jetzt schiebt man es auf “die Software”.

Indirekt hat das wieder mit dem Thema Wahlcomputer zu tun: Wahlhelfer müssen (und werden) einem Computer blind vertrauen, dass der schon alles richtig zählt. Nachdenken müssen, Nachprüfen können Wahlhelfer dann nicht mehr.

Nachtrag:

“Alles, was danach passiert, ist eine black box. Natürlich muss der Computer ‘nur noch’ addieren, aber für die Wahlhelfer ist nicht auf einen Blick ersichtlich, ob ein ausgewerteter Stimmzettel korrekt den jeweiligen Parteien oder Kandidaten zugeordnet wird. Natürlich kann man im Kopf mitzählen und nach jedem zweiten Stimmzettel auf den Reiter der Ergebnisse gucken und schauen, ob diese noch passen. [..] Bei all diesen Kontrollen darf man nicht vergessen, dass der typische Computernutzer seinem Gerät vertraut. Er bekommt die Anweisung, nach einer Eingabe alles zu kontrollieren. Das macht er 20 Minuten lang. Spätestens dann glaubt er dem Computer, weil der macht immer das gleiche und hat ja eh immer Recht.”