Posts in "Computer"

Zwiegespalten: Twitter und Appdotnet

Seit ein paar Wochen versuche ich mit zwei sozialen Netzwerken umzugehen: Twitter und Appdotnet.

Wie Twitter mit den Entwicklern umgeht, finde ich einfach nur schlimm. Das Twitter anscheinend inzwischen von BWLern beherrscht wird und man sich in Profitmaximierung versucht auf Kosten der Nutzer finde ich auch einfach nur schlimm. Dazu kommt, dass Twitter seinen eigenen Desktop-Client aufgibt und ggf. in einem Update der API-Guidelines Desktop-Clients verbietet. Meiner Meinung nach ist Twitter einfach unberechenbar geworden, auch wenn sie die Änderungen schon vor einem Jahr ankündigten.

Und dann gibt es jetzt auch Appdotnet (ADN). Für ADN zahlt man aktuell pro Jahr $50 und dafür wird es wohl werbefrei eine Plattform für soziale Netzwerke geben. Es entwickelt sich technisch sehr schnell, bei der Anzahl der Benutzer macht es allerdings einen anderen Eindruck. Aktuell fühlt sich ADN wie Twitter in einem frühem Stadium an aufgrund der geringen Nutzerzahlen. 

Inzwischen ist es featuremäßig bei Twitter angekommen. Seit kurzem gibt es auch Favs (Stars) und native Retweets (Reposts). Es gibt aktuell keine Listen, dafür 256 Zeichen zum Vertippen. Sieht alles ähnlich aus, nur hat es generische Namen und damit weniger Charme. Clients gibt es noch nicht viele, aber es befinden sich so einige in Entwicklung und ich bin mit meiner aktuellen Wahl (Appetizer unter OS X und Spoonbill unter iOS) recht zufrieden, auch wenn zumindest Spoonbill noch nicht alle ADN-Features unterstützt.

Technisch hat es den Nachteil, dass es nirgends integriert ist es wie Twitter. Weder in Instapaper, noch in Reeder und ganz böse und das wird vermutlich nie kommen: direkt in iOS oder OS X.

Was stört sind aktuell immer noch die fehlenden bzw. die nicht-postenden Nutzer. Nicht jeder mag sich $50 für ein soziales Netzwerk leisten, Twitter geht ja auch noch gut genug und sehr viele sind da. Andere haben zwar einen ADN-Account, posten da aber nichts. Gleichzeitig sind Crossposts, sprich Posts von Twitter nach ADN weiterleiten oder umgekehrt, von vielen aus unterschiedlichen Gründen verpönt (wer beides richtig liest, bekommt doppelten Content; RTs sind über Accounts, die es nicht gibt oder die falschen sind etc). Damit könnte ADN sich aber zumindest bootstrappen. Wenn die Leute, die bei beiden SNs einen Account haben, aber aktuell nur Twitter nutzen, zumindest ihre Posts weiterleiten, könnte man ADN nutzen und zumindest die Posts derer trotzdem nicht verpassen. Ich hab’s versucht in die eine und in die andere Richtung. Auf ADN ist es weniger verpönt als auf Twitter, aber glücklich macht beides nicht.

Ich selbst habe versucht die letzten Tage sehr wenig Zeit und hauptsächlich Zeit mit ADN zu verbringen und dabei so einiges erstmal für mich aufgesetzt. Eine IFTTT-Regel, die alle Links von Twitter nach Pinboard umlenkt, damit ich die gesammelten Links habe, da ich inzwischen für mich meine Timeline recht gut zusammengestellt habe. Dann eine IFTTT-Regel für einen ungenutzten Zweitaccount auf Twitter ohne nennenswerte Followerschaft, um cross zu posten, um die Twitterintegration von Programmen/Betriebssystemen zu nutzen. Und retweeten versuche ich auf Twitter zu vermeiden, sondern verlinke hier auf dem Blog interessante Links, wie in einem Linkblog und poste das dann zu beiden SNs, da mein Blog anscheinend, nahezu gar nicht über RSS-Feeds gelesen wird. Macht allerdings auch mehr Arbeit. Damit lässt sich aber irgendwie leben. In meinem ADN-Stream geht auch schon ein wenig was.

Allerdings musste ich feststellen, dass mir ganz viel Content von Leuten fehlt, die ich auf Twitter gerne lese. Spontan fallen mir da z.B. @map, @no_vem_ber, @mrtoto, @nsemak, @jakeadelstein, @hirokotabuchi und noch eine ganze Reihe anderer ein (wehe, es fühlt sich jemand beleidigt an, weil ich sie oder ihn nicht genannt habe…aber die Liste ist zu lang). Teils haben die genannten Accounts, posten aber nichts auf ADN, teils haben sie keinen und werden sich vermutlich auch nie einen zulegen. Und das macht halt entweder Twitter oder ADN einfach zu einer weiteren Inbox mit anderen Leuten. Da Crossposts verpönt sind, muss man sich auch irgendwie entscheiden für welches Publikum man schreibt (meine Blogposts gehen in beide SNs). Ehrlich gesagt, läuft das bei mir darauf hinaus, dass ich an einem Tag entweder nur auf Twitter oder nur auf ADN schreibe. Ich hatte schon ein Problem damit Facebook und Twitter gleichzeitig zu nutzen, als ich noch Facebook versuchte aktiv zu nutzen und da hatte ich wirklich unterschiedliche “Follower”.

Aktuell führt es dazu, dass ich mich “schlecht” fühle, wenn ich Twitter benutze, da ich eigentlich Twitter verlassen will für den ganzen Mist den sie verzapfen. Das Gejammer über Twitter bringt halt nichts, wenn man es weiter benutzt. Bei mehreren Hundert Millionen Nutzern ist das Twitter egal und wenn die Alpha-Nerds zu was anderem ziehen, ist ihnen das auch egal, so lange nicht alle Nutzer wegziehen. Die Alpha-Nerds sind auch die, die sich über Werbung aufregen, aber Werber zahlen vermutlich mehr, als die Nutzer bereit wären zu zahlen. Und für Twitter zählt aktuell anscheinend Profitmaximierung und nicht glückliche Nutzer. So lang sie es auf dem Level halten, dass die Nutzer Twitter gerade nicht verlassen, ist alles schön für Twitter. Und die meisten sind ziemlich schmerzbefreit, wenn man sich überlegt wie viele Leute Facebook benutzen (keine wirklichen 3rd-Party-Apps, kein Desktop-Client, Privacy ist ein Fremdwort und Spammen durch Freunde ist eingebaut).

Gleichzeitig will ich ADN benutzen, weiß aber, dass ich eigentlich noch Twitter lesen muss, um alles mitzubekommen, was ich mitbekommen will. Das nervt. Kolossal. Vermutlich bin ich der einzige dem es so geht, aber es stört mich massiv. Was nun also tun? Twitter-Account verkümmern lassen, ab und zu reingucken und irgendwann heißt’s “Aus den Augen aus dem Sinn”, noch mehr der knappen Zeit in das Lesen von zwei SNs und Posts reinkippen oder ADN ADN sein lassen und wie so viele andere warten, dass es was wird? Aber wenn zu viele so denken, dann wird das mit ADN nie etwas. ADN ist erst ein paar Wochen alt, aber gefühlt tut sich nach dem Anfangshype zumindest nutzertechnisch nicht viel. Um genau zu sein viel zu wenig. Die Unique Users waren heute 939 (als ich diesen Post schrieb), vor ein paar Tagen waren es ca. 1500. Das ist a) so gut wie gar nichts und b) scheint sich das nicht zu steigern. Kurz: Mit ADN ist das irgendwie alles blöd und das Momentum scheint trotz Clients in Entwicklung abzunehmen. Clients sind halt nicht alles.

Manno, ich find das alles doof und verschwende eigentlich viel zu viele Gedanken auf sowas wie die Entwicklung von sozialen Netzwerken… >_<

Wie Google seine Karte baut

Wie Google seine Karte baut.

The Atlantic hat einen Artikel veröffentlicht, der beschreibt wie Google seine Karten baut, da das erhaltene Material nur suboptimal ist und eine Menge Nacharbeit erfolgen muss.

On first inspection, this data looks great. The roads look like they are all there and you've got the freeways differentiated. This is a good map to the untrained eye. But let's look closer. There are issues where the digital data does not match the physical world. I've circled a few obvious ones below.

Und wenn ich mir das so ansehe, bezweifel ich, dass die Kartenanwendung in iOS6 da viel reißen wird.

I came away convinced that the geographic data Google has assembled is not likely to be matched by any other company. The secret to this success isn't, as you might expect, Google's facility with data, but rather its willingness to commit humans to combining and cleaning data about the physical world.

Clients from Hell

Ich arbeite schon jahrelang im Support, sei es nun im CallCenter oder in einer IT-Abteilung mit Endanwenderbetreuung. Da erlebt man so einiges, gebloggt habe ich aus Gründen darüber noch nie. Wer trotzdem etwas vom alltäglichen Wahnsinn und besonders den Extremfällen mitbekommen und lachen bzw. seine Hand vor die Stirn schlagen will empfehle ich Clients from Hell.

4Chan hat ne API?

4Chan hat ne API?

A little more than a month after revealing that it had reached one billion posts, 4Chan has announced that it has released an API that should allow developers to build better third-party extensions for the imageboard.

MacBook Air 13" 2011 - ein Bericht

Heute kam es zu einem kurzen Chat auf Twitter weil @phildav sein neues MacBook Air ausgepackt hat und @mercurix gerne einen Erfahrungsbericht hätte. Ich habe mein MacBook Air auch erst vor ca. zwei Wochen erhalten und anstatt die Erfahrungsberichte auf dem Metaebenen-Hörerstammtisch am Sonntag auszutauschen, schreibe ich hier schon mal meine Gedanken nieder.

Kurzfassung: Es rockt.

Langfassung: ich glaube ich erzähle erstmal woher ich komme und das hier wird wohl ein längerer Blog-Post.

Bei meinen Eltern hatten wir mal einen Highend-286er mit Hercules-Graphikkarte, aber danach war es eigentlich immer recht rückständig, was Rechner anging. Mein erster eigener Rechner war dann ein Subnotebook von irgendeinem No Name-Hersteller. Sehr leicht, Batterielaufzeit war nicht prächtig aber ok für 2001 und der CD-Brenner extern. Und wenn ich mich richtig erinnere war es ein Mobile Pentium III mit 1GHz und das war glaube ich damals fixer als der Nachfolger. Aber so ganz bekomme ich das nicht mehr zusammen. Windows 98SE war das Betriebssystem der Wahl. Mit Linux hatte ich schon öfter mal rumgespielt, aber für die Prime Time war es für mich noch nichts. Leider hielt die Maschine nicht so lange, wie ich mir das gewünscht habe und so brauchte ich einen neuen Rechner. Das war dann eine selbstgebaste Kiste, die als einziges Ziel hatte möglichst billig zu sein. Unter 300€ mit DVD-Brenner, das Celeron-Äquivalent von AMD, der Monitor kam später gebraucht von nem Kumpel. Windows 2000 wegen der besseren Unterstützung von Japanisch war damals angesagt und ab und zu mal ein Boot nach Linux. Wobei das auch immer öfter wurde.

Als nächstes kam ein Kumpel, der hobbymäßig defekte Thinkpads auf ebay kaufte und sie dann zu einem funktionierendem zusammenwarf. Dem kaufte ich so eine Kiste ab, ein T20. Tolle Maschine. Ich hab großen Respekt vor den Thinkpads, die IBM damals baute. Wirklich tolle Maschinen. Da kam dann Linux only drauf. Und weil ich zu der Zeit nicht studierte, sondern Vollzeit arbeitete um mir meinen Japanaufenthalt zu finanzieren, hatte ich in den langweiligen Nachtschichten viel Zeit um mir die Kiste mit Bleeding Edge-Kram regelmäßig zu zerschießen. Viel Bastelei und viel gelernt. Und dann wurde sie mir leider gestohlen. Das regt mich immer noch auf, wenn ich drüber nachdenke… :(Und dann suchte ich eine Maschine, die für den Japanaufenthalt geeignet sein sollte. Klein (12" - Widescreen war Ende 2003/Anfang 2004 noch nicht so weit verbreitet), nicht allzu schwer, ordentliche Batterielaufzeit, weltweite Garantie, muss unter 1.000€ kosten und das Linux soll ohne Hürden sofort laufen. Damals hatte ich schon länger mit Sehnsucht auf Macs geschaut. Die UI war einfach schön und die Nachbauten in KDE kamen da einfach nicht ran.Und das iBook G4 12" 800 MHz war damals einfach der Laptop der alle meine Kriterien erfüllte. Tolle Batterielaufzeit für die Größe, weltweite Garantie, die kaum ein Hersteller hat(te?), max. 1000€ (wenig für die Größe damals) und es gab zwar kein Linux aber ein Betriebssystem mit *nix-Unterbau, das auch noch toll aussah. Yellow Dog Linux habe ich übrigens versucht zum Laufen zu bekommen, war aber nicht erfolgreich.Als ich irgendwann den RAM von 256 MB auf 768 MB aufrüstete, hatte ich das erste und einzige Mal wirklich das Gefühl, dass das Aufrüsten von RAM so richtig was brachte. Es war ein riesiger Sprung.

Leider hatte ich ein Montagsgerät - am Ende hatte es glaube ich 3 oder 4 LogicBoards und 4 SuperDrives in sich gehabt. Da es in Japan rumzickte und ich aus irgend einem mir heute unverständlichen Grund nicht in den AppleStore in der Ginza gefahren bin, habe ich mir ein Toshiba Libretto L5 gekauft. Eine super interessante Maschine. Ein Transmeta Crusoe mit 800 MHz (na, wer kann sich an den Prozessor noch erinnern?), ein 10,5"-Widescreen-Display mit einer Auflösung von 1280x600 (das sind ca. 135 PPI und das 2002!). Das Neuinstallieren eines OS stellte sich als etwas problematisch heraus - Festplatte ausbauen, in einen anderen Laptop einbauen, Linux drauf und dann wieder zurückbauen. Den Ethernetanschluss musste ich mir über eine PCMCIA-Karte hinzukaufen. Der Mensch im Computershop konnte mir leider nicht sagen, welcher Chipsatz verwendet wird. Aber zumindest in den großen Computerläden in Japan haben die Leute, denen man Fragen stellen kann, eine Hotline bei der sie anrufen können, wenn ihnen der Rat ausgeht. Tolle Sache.

Nun ja, das Libretto kam jedes Mal zum Einsatz, wenn das iBook in Reparatur war. Irgendwann wurde mir das iBook umgetauscht auf ein iBook G4 mit 1,2GHz, aber auch das gab dann nur wenige Monate nach Garantieende den Geist auf. Eine Lötstelle Nähe der Graphikkarte war vermutlich gebrochen, ein häufiger Fehler bei den Dingern.

Ende 2006 hatte ich mir dann einen iMac 17" mit Core2Duo gekauft, da ich gerne zu meinem iBook eine schnelle Ergänzung für zu Hause wollte. Außerdem wurde für die Uni Windows wichtig, da in den Statistik-Veranstaltungen eine Windows-Software ohne Mac-Ersatz verwendet wurde und ich auch zu Hause damit arbeiten wollte. Auch eine sehr schöne Maschine. Irgendwann wurden ihre 2GB auf 3GB aufgerüstet, aber das machte nur einen geringen Unterschied. Externe Festplatten sollten die interne 250GB-Platte später unterstützen und ein gebrauchtes 19"-Display kam dann auch noch dazu.

Anfang 2009 entschied ich mich dann doch wieder einen Laptop zu kaufen. Diesmal war es ein MacBook Air. Revision B (MBA 2,1) mit der NVIDIA-Graphik und Festplatte. Die SSD machte damals 500€ Aufpreis aus. Und oh Mann habe ich mich geärgert, als die Kisten sechs Monate später ca. 500€ im Preis fielen. Das ist die einzige Maschine, die ich in meiner gesamten Zeit in der ich einen Computer besaß als Fehlkauf interpretieren würde.Die Maschine war aufgrund ihrer lahmen Festplatte immer relativ langsam. Wenn ich das Air nur als bessere Schreibmaschine benutzt hatte, war es ok, aber das war es auch. Die “echte” Batterielaufzeit war mit 2,5h - 3h relativ kurz und irgendwie war das alles nicht so der Bringer. Als ich einmal meinen iMac für ein - zwei Wochen meinen iMac verliehen hatte, war es gerade so erträglich. Das MacBook Air war ein toller Zweitrechner, aber als Primärrechner untauglich meiner Meinung nach. Dazu kam, dass ich weitaus weniger als geplant den Laptop mit mir rumtrug. Nun ja, jetzt hab ich ihn meiner Freundin gegeben und sie ist sehr zufrieden damit. Sie hatte davor ein MacBook Pro 15", auch Late 2006 - na ja, an sich mein iMac nur als Laptop. Und der hat ne Menge rumgezickt und wurde nie richtig repariert.

Dieses Jahr habe ich mir dann für meinen iMac, der inzwischen fünf Jahre auf dem Buckel hat, eine 128GB-SSD besorgt. Nach dem Einbau, konnte man aber auf einmal die Lüfter deutlich hören. So richtig konnte ich das nicht fixen. Und dann war auf einmal der CPU-Lüfter auf einmal der Meinung regelmäßig zu melden, dass er sich nicht mehr drehen würde. Die Reaktion des Rechners war natürlich sich in einen Staubsauger zu verwandeln. Und das war nicht tragbar. Also wurde der Kauf von einem MacBook Air 13" vorgezogen. Eigentlich war das erst für Januar geplant, nun ja jetzt ist es halt schon im September da.

Warum ein MacBook Air und kein MacBook Pro? Das DVD-Laufwerk brauch ich selten und wenn ich es mit mir rumtrage, dann ist das nur zusätzlicher Ballast. Die zusätzlichen Ports sind ganz nett, aber mir reichen auch die zwei USB-Ports. Hauptsache die Kiste ist leicht. Das war mir bei einem Laptop schon immer das wichtigste. Und schon von meinem alten MacBook Air wusste ich, dass das Beste an dem Teil ist, dass ich es in die Tasche packe und es sich weder vom Platzverbrauch, noch vom zusätzlichen Gewischt so anfühlt, als ob ich einen Laptop dabei habe.

Warum ein 13", wenn es doch möglichst leicht sein soll? Da habe ich lange herumüberlegt und bin zu folgendem Schluss gekommen. Wenn das MBA nur ein Zweitrechner sein soll, und man zu Hause einen iMac o.ä. rumstehen hat, ist das 11" die bessere Wahl. Soll es jedoch der einzige Rechner sein, spielt die Auflösung eine wichtige Rolle und da will ich die 1440x900 haben. Für eine tagtägliche Nutzung sind mir die 768 Pixel vertikal einfach zu wenig.

Und nun sitze ich hier mit einem MacBook Air 13" mit i5-Prozessor und 128 GB. Angeschlossen daran ein aktiver 7-Fach-USB-HUB und daran nochmal ein aktiver 4-Fach-USB-Hub. An dem 7-Fach-USB-Hub hängen zwei externe 1TB-Festplatten, ein Scanner, das Kabel für’s iPhone und der 4-Fach-USB-Hub aktuell. Die Platten und der große Hub sind unter’m Tisch, die Kabel werden alle durch so Kabelführungslöcher durch die Gegend geführt und alles inkl. sämtlicher Stromkabel liegt in einem Kabelkorb unter dem Tisch. Der 4-Fach-Hub steht oben auf dem Tisch, wenn ich meine PSP, meinen Kindle oder z.B. Joypads anschließen will, sprich ein paar mehr USB-Ports auf dem Tisch haben will.Die iTunes-Bibliothek liegt auf einer der externen Platten. Und alles an großen Daten liegt auf den externen Platten.

Wie sind meine Erfahrungen bis jetzt? Es ist eine großartige Maschine. Sie ist unwahrscheinlich schnell. Handbrake ist drei - viermal so schnell gegenüber dem iMac. Alles fühlt sich rund und flüssig an. Die Lüfter drehen selten auf und selbst dann ist es eher ein Rauschen als ein Pusten.  Außerdem haben sie ein Problem gelöst, das mich bis jetzt bei jedem Laptop und Netbook gestört hat. Wenn die Kisten wärmer werden, wird die Handablage und die Tastatur warm. Und es nervt mich tierisch, wenn die Tastatur warm wird. Aber irgendwie hat es Apple geschafft, das selbst bei großer Last und hohen Temperaturen die Flächen, wo sich die Hände und die Finger aufhalten kühl bleiben. Na ja, nicht kühl, aber unter 37°C. Super Sache.

Die Auflösung ist hoch genug, dass ich einen Text-Editor und eine PDF nebeneinander haben kann, genauso wie auf meinem 17"-iMac.

Eine Schwachstelle hat das MacBook Air jedoch: es gibt keinen Line-In, aber den brauche ich nur selten. Für den Retrozirkel benutze ich ein USB-Mikrofon und das ist auch so mit das einzige, wofür ich nen Line-In brauche.

Die Akku-Laufzeit ist lang, aber ich konnte sie noch nicht wirklich austesten. Flash senkt sie aber rapide. Na ja, für Flash benutze ich Chrome, für alles andere Safari. Das spart Strom.

Die Tastatur ist gut wie immer, das Trackpad ist angenehm groß. Besser als das Multitouch-Trackpad vom alten MacBook Air. Aber leider zu klein für einige Lion-Gesten (5-Finger-Pinch, vor allem wenn man etwas mit einem Finger “festhält”, das man gerade draggt), da ist mir das Magic Trackpad lieber.

Aktuell versuche ich nur mit dem internen Display klar zu kommen und lasse das externe Display aus. Ich habe festgestellt, dass ich mich besser konzentrieren kann, wenn ich nur das eine kleine Display vor mir habe. Es lässt sich besser damit arbeiten. So richtig begründen kann ich es aber nicht.

Ich hab den Laptop erst zwei Wochen, aber ich würde sagen, dass es der beste Computer ist, den ich je besessen habe. Bei der Aussage beziehe ich Zeit und Umstände mit ein. Schließlich ist ein Laptop von 2011 grundsätzlich einer Kiste von 2003 überlegen. Hardwaretechnisch liegt es selbst vor dem T20, das bis dahin meine liebste Maschine war. Es ist schön wieder nur einen Rechner zu haben und nicht mehrere. Weitaus weniger Stress zwecks Synchronisation. Zu Hause benutze ich das Air viel stationär wegen der externen Platten, aber auch wenn ich mich damit rumbewegen will, macht der Akku nicht gleich schlapp und es wird auch nicht zu heiß.Ich find’s toll und störende Punkte, bis auf den Line-In habe ich auch noch nicht gefunden.

Flattr this

rikaikun - Rikaichan für Google Chrome

Vor nicht allzu langer Zeit bin ich auf Google Chrome umgestiegen. Meiner Meinung nach ein sehr ordentlicher Browser von Google, der u.a. die tolle Eigenschaft hat, dass jeder Tab einen neuen Prozess aufmacht und wenn damit aus irgendeinem Grund eine Seite nicht mehr reagiert oder ein Plug-In abstürzt nur der eine Tab abstürzt und nicht alles. Um genau zu sein auf die Nightly Builds von Chrome namens Chromium, da diese auch unter Mac OS X Extensions unterstützen. Für Firefox gibt es das großartige Rikaichan, dass ich schon mal in diesem Blog vorgestellt habe.

Jetzt gibt es rikaikun: eine Portierung von Rikaichan nach Google Chrome. Großartig :) Leider unterstützt es aktuell nur das Wörterbuch für Japanisch-Englisch aber zumindest für mich ist das erstmal ausreichend. Hoffentlich werden aber noch weitere Wörterbücher nachgeschoben. rikaikun kann hier heruntergeladen werden.

Google geht ein weiteres Problem an: Japanischeingabe

Vor zwei Wochen hat Google den Google IME für Japanisch veröffentlicht (jap. Google-Blogeintrag). Während ich schon mehrfach auf Twitter davon gelesen hatte, bin ich jetzt erst dazu gekommen ihn mir genauer anzusehen. Ich muss sagen, dass ich begeistert bin.

Was aber ist ein IME? (Jeder der das bereits weiß, kann diesen Teil überspringen) IME steht für Input Method Editor und ist das Tool, das benutzt wird um Japanisch auf einem Computer einzugeben. Als Endnutzer sehe ich folgendes: Man beginnt mit der Eingabe einer Umschrift mit Hilfe von lateinischen Buchstaben (Romaji) und diese wird dann entsprechend der Regeln der Umschrift in Hiragana umgewandelt. Drückt man die Leertaste, wird das Geschriebene kontextabhängig in eine Mischform aus Hiragana, Katakana und Kanji umgewandelt. Danach können noch Korrekturen an der Umwandlung bzw. des Geschriebenen vorgenommen werden. Im Hintergrund steckt eine Datenbank auf die zugegriffen wird, je nach IME ist diese mal kleiner oder größer. Dasselbe gilt für die Qualität der Heuristik. Bei allen mir bekannten IMEs kann man zusätzlich neue Wörter hinzufügen.

Nun aber zu Googles IME. Entstanden ist der Google IME aus einem der 20%-Projekte bei Google. Mitarbeiter bei Google bekommen 20% ihrer Arbeitszeit freigestellt um an eigenen Projekten zu arbeiten. Die Anfänge des IMEs liegen bei Google’s “Meinten Sie”. Jeder kennt das. Man gibt etwas bei Google ein, vertippt sich vielleicht und startet die Suche. Über den Ergebnissen steht dann oftmals ein “Meinten Sie: Suchbegriff”, welches bei einem Vertipper den korrekt geschriebene Suchbegriff anzeigt. Diese Technologie wurde als Grundlage für Googles IME genommen.

Das Ergebnis ist klasse. Fängt man an zu tippen, so gibt es, wie auch bei anderen IMEs bekannt, Vorschläge, was man tippen will. Jedoch scheinen mir die Vorschläge bei Googles IME besser und vor allen Dingen aktueller zu sein. Selbst relativ neue Wörter wie z.B. オン寝 (On’ne - das Einschlafen während man auf eine Antwort im Chat bzw. auf eine E-Mail wartet) sind enthalten. Bei der Installation kann man auswählen ob die Anwendung nach Hause telefonieren darf um die Ergebnisse des IMEs zu verbessern.

Aktuell ist der IME verfügbar für Windows (XP SP2, Vista SP1, 7) und Mac OS 10.5+.

Fragen und Anmerkungen sind in den Kommentaren wie immer gern gesehen :)

Wörterbücher im Netz und auf dem Rechner

Nach einem Artikel über iPhone-Apps zum Japanisch-Lernen und Artikel zu Wörterbüchern auf dem iPhone, gibt’s nun etwas Material zu Wörterbüchern im Netz, für Mac OS X und Linux. Dies hier soll eine Übersicht bieten. Die meisten Anwendungen, die ich hier erwähne nutze ich selber schon ziemlich lange. Ich erhebe keinen Anspruch auf Vollständigkeit.

 

Online

Wadoku.de: Das Wadoku ist wohl das bekannteste japanisch-deutsche Wörterbuch im Netz sein. Selten trifft man auf fehlende Wörter und findet man doch einmal ein Wort das fehlt, kann man es relativ einfach selbst registrieren. Zum Zeitpunkt des Artikels sprechen sie von ca. 250.000 Einträgen.

 

Japanisch-Deutsches Kanji-Lexikon: Das Japanisch-Deutsche Kanji-Lexikon ist, wie der Name sagt ein Wörterbuch um Kanji herauszusuchen. Meines Wissens nach die einzige Möglichkeit im Netz nach deutschen Übersetzungen von Kanji zu suchen.

WWWJdic: Das WWWJdic ist ein Interface für mehrere Online-Wörterbücher. Das Bekannteste dürfte hierbei wohl das edict sein. Ein sehr umfangreiches Wörterbuch das Japanisch-Englisch spricht. Es ist auch ein Interface für das Wadoku, wobei es meines Wissens nach nicht so aktuell ist wie das “richtige” Wadoku sondern immer ein etwas älterer Snapshot. Ein weiteres interessante Wörterbuch im WWWJdic ist das enamdict. Wer sich schon mal mit japanischen Namen auseinandersetzen musste, wird wissen wie schwer es ist Lesungen dafür herauszufinden. Das enamdict ist dann das passende Wörterbuch hierfür. Allerdings muss man warnen, dass man bei Namensübersetzungen von Autoren deren Werke man zitieren will, besser noch einmal Google eingehend befragt, da viele Namen mehrere Lesungen besitzen und man sich nie 100% sicher sein kann, wenn man Autorennamen und Lesung nicht nebeneinander stehen gesehen hat. Das WWWJdic hat außerdem auch eine sehr brauchbare Möglichkeit um Kanji nachzusehen. Als Datengrundlage benutzt es das kanjidic.

ALC: Habt ihr mit sozialwissenschaftlichen Texten (z.B. Texte aus der Politik oder Wirtschaft) zu tun werdet ihr des öfteren an die Grenzen von Wadoku und Edict stoßen. Dann ist ALC, ein erweitertes Interface zum Eijirō euer Freund. Es enthält nicht nur den Content des Eijirōs, sondern auch viele Beispielsätze und daher kommt seine Stärke. Viele Wörter wird man nur in Beispielsätzen und deren Übersetzung finden und kann daran sehen wie bestimmte Wörter benutzt werden. Außerdem hat es im Bereich Wirtschaft und Politik noch einiges mehr an Wörtern als die obigen beiden.

Denshi Jisho: Denshi Jisho ist ein weiteres Interface für edict und kanjidic. Allerdings sieht es um einiges hübscher aus als das WWWJdic. Beim kanjidic bietet es ein schönes Ajax-Interface um sich Kanji zusammen zu klicken. Besonders nützlich ist dies auf dem iPhone, da es hierfür ein angepasstes Interface gibt, das schnell und zuverlässig funktioniert.

Kotobank: Seit einiger Zeit gibt es ein freies Japanisch-Japanisch-Wörterbuch im Netz: Kotobank. Es speist sich aus einer ganzen Reihe Wörterbücher und ist eine wirklich feine Sache. Natürlich ist so etwas nur für fortgeschrittene Lerner.

Popjisyo: Popjisyo möchte ich hier nur für eine Funktion erwähnen: seine Bookmarklets. Ein Bookmarklet ist ein Lesezeichen, das Javascript enthält und dann etwas mit der Seite tut auf die man es anwendet. Nutzt man die Bookmarklets von Popjisyo kann man auf einer japanischen Seite über die Wörter fahren und bekommt Lesungen und Übersetzungen. Es gibt sowohl eins für Deutsch als auch für Englisch. Da es ein Bookmarklet ist funktioniert das Ganze browserunabhängig.

Rikaichan: Der einzige Grund warum ich manchmal zum Firefox greife ist Rikaichan. Dies ist ein FF-Plugin, dass an sich das Selbe macht wie Popjisyo aber schneller und zuverlässiger ist. Darüberhinaus kann man auch mehrere Wörterbücher gleichzeitig verwenden für die Übersetzungen. Damit habe ich das umfangreichere Japanisch-Englisch-Wörterbuch, ein japanisch-deutsches und das enamdic zur Verfügung.

Reading Tutor: Der Reading Tutor ist ein Projekt der Tokyo International University. Er ist nützlich beim Lernen von japanischen Texten. Man wirft einen japanischen Text rein und bekommt diesen mit einer Wörterliste raus. Jede Vokabel, die er erkannt hat, ist dann verlinkt und drückt man auf den Link bekommt man rechts in einem Frame die entsprechende Vokabel angezeigt. Zusätzlich wird diese dann einer Vokabelliste hinzugefügt (bei einem Test während des Schreibens dieses Artikels hat diese Funktion allerdings nicht funktioniert). Der Reading Tutor kann Japanisch-Japanisch, Japanisch-Englisch, Japanisch-Deutsch und mehr. Vor Popjisyo und Rikaichan definitiv noch nützlicher gewesen aber zu Übungszwecken immer noch brauchbar.

 

Mac OS X

JEDict: Es gibt für den Mac sicherlich noch mehr Anwendungen als JEDict aber keine hat sich über die Zeit als so nützlich herausgestellt. JEDict ist Shareware und erlaubt in seiner nicht registrierten Variante nur die Benutzung von edict und kanjidic. Registriert man es jedoch ($25 normal/$15 für Schüler und Studenten) kann auch weitere Wörterbücher im edict-Format nutzen. Auf Jim Breen’s Japanese Page gibt es eine Liste mit weiteren Wörterbüchern. U.a. gibt es auch welche mit Spezialvokabular für Jura, Informatik, Buddhismus und mehr. Das Wadoku gibt es hier im edict-Format. JEDict erlaubt es nun offline über alle installierten Wörterbücher gleichzeitig zu suchen. Zusätzlich hat es auch einen Service um nach Wörtern zu suchen und überwacht die Zwischenablage. Kopiert man also ein Wort, brauch man nach dem Wechsel zu JEDict nur noch Enter zu drücken um danach zu suchen. Außerdem kann man nach Kanji suchen in dem man sie zusammenklickt oder auch per rudimentärer Handschrifteingabe. Neue Wörter kann man über ein Userdict hinzufügen.

Jisho: Jisho von Sugoisoft ist eine Shareware, die $17 kostet. Es benutzt das JMDict und kann daher sowohl Englisch als auch Deutsch. Sein Interface ist sehr simpel und erlaubt nur die einfache Suche nach Wörtern. Schaue ich mir seit Jahren immer mal wieder an aber es ist dem obigen JEDict einfach weit unterlegen, da es weder eine ordentliche Kanji-Suche noch die Verwendung mehrerer Wörterbücher erlaubt.

Live Dictionary: Über Twitter wurde ich auf Live Dictionary aufmerksam gemacht. Es verspricht unter Mac OS X das Selbe zu leisten wie Rikaichan, allerdings für Safari. Aus meinen früheren Erfahrungen war es ganz nützlich, nur hatte ich den Mehrwert gegenüber Popjisyo oder Rikaichan nicht wirklich gesehen, wenn man es nur für Japanisch nutzen will. Vor allem, weil es knapp 18€ kostet und die anderen beiden Lösungen kostenfrei zur Verfügung stehen. Gegenüber den anderen beiden Lösungen bietet es allerdings noch eine größere Anzahl weiterer Sprachen an (z.B. Chinesisch, Schwedisch, Türkisch…). Bei meinem erneuten Test vor ein paar Minuten wollte es leider einfach nicht funktionieren, daher kann ich nichts zum aktuellen Stand der Software sagen. Im Forum der Anwendung gibt es auch einen Eintrag wie man die Anwendung für andere Anwendungen (z.B. Mail) benutzen kann.

 

Linux

GJiten: Für Linux ist mir an sich nur GJiten bekannt. Ein sehr einfacher edict-Client, der aber auch das Arbeiten mit mehreren Wörterbüchern unterstützt. Unter FreeBSD habe ich ihn leider nie zum Laufen gebracht.

Tagaini Jisho: Heute bin ich noch über Tagaini Jisho gestolpert. Dieses ist betriebssystemübergreifend und damit mit Windows, Mac OS X und Linux benutzbar. Es scheint das edict und kanjidic zu benutzen. Es soll nicht nur zum Nachschlagen sondern auch zum Lernen verwendet werden. Man kann hierfür Wörter einer Vokabelliste hinzufügen, die durch das Programm abgefragt wird. Allerdings ist es eine ziemlich hässliche Java-Anwendung.

Wadoku-Notify: Wadoku-Notify wurde mir vom Entwickler per Mail zugetragen. Wadoku-Notify kann man sich laut ihm wie ein systemweites Rikaichan vorstellen. Allerdings greift es auf das Wadoku zu und nicht auf das JMDict. Laufen tut das Ganze aktuell unter Linux, Windows und auf dem Nokia N900. Eine OS X-Version ist wohl in Vorbereitung. Der Sourcecode ist auf github zu finden. Getestet habe ich die Anwendung selbst nicht.

Über Ergänzungen, Kommentare und Fragen freue ich mich wie immer :)