Sonstiges

Pixsta

folgende PR-Meldung erhalten:

Das Unternehmen Pixsta Ltd. mit Sitz in London erteilte heute eine Kampfansage an Googles Dominanz auf dem Suchmaschinenmarkt: Pixsta bringt eine technisch ausgefeilte und präzise Bildersuche auf den europäischen Markt. Auf Grundlage neuester wissenschaftlicher Erkenntnisse hat Pixsta eine Technologieanwendung für kontextabhängige Bilder entwickelt, die erstmalig eine „Bild zu Bild“ Suche ermöglicht – im Gegensatz zu den bisher am Markt vorhanden Suchmaschinen, die nur eine „Text zu Text“ bzw. „Text zu Bild“ Suche erlauben…Das Ergebnis seiner Forschungsarbeiten sind programmiertechnisch ausgefeilte Algorithmen, die es jedem Bild erlauben mit einem anderen verglichen zu werden, um die Ähnlichkeiten in Bezug auf Farbe, Form, Beschaffenheit und anderer Eigenschaften zu bestimmen. Die Pixsta Bildersuche ist technologisch so hoch entwickelt, dass sie ebenfalls Anwendungsbereiche in der Gesichtserkennung finden könnte

Gut, ein sehr vollmundiges Versprechen, also messen wir sie auch daran, wenn man einen auf Dicken Max macht.

Pixsta.com aufrufen und Demo testen: Wir geben RED ein.
Test
Hm, ok, muss wohl nochmal testen, diesmal red shoes:

TEst2
„Rote Schuhe“ mag Pixtas SuperAlgo nicht wirklich. Ok, dann klicken wir halt eben aus dem ersten Testlauf auf die rote Handtasche:

Test 3
Sieht doch schon mal etwas besser aus. Also klicken wir auf die blauen Shorts:

Test 4
möööp, nicht so wirklich.

Irgendwie habe ich nicht den Eindruck, dass die damit gegen Google anstinken können. Zumal Innovation für mich nicht nur darin besteht, Bilder nach irgendeinem Mechanismus zusammenzusuchen, sondern die Treffer aka Bilder noch wesentlich assoziativer zusammenzustellen. Beispiel? Nehmen wir das Objekt Schuhe. Der weitaus geilere Showeffekt wäre, weitere Schuhe unten darzustellen, drüber die entsprechenden Beinkleider, bis hin zur Kopfbedeckung und Accessoires, die sich um das einzelne Bekleidungsstück in einer etwas kleineren Bildgröße versammeln. Dann hätte ich gesagt: Gut, Algo sieht nicht brachial weltbewegend aus, aber die Idee der Anordnung ist der Kracher. So ist es halt… ein Versprechen, Google was anzutun, damit man in die Presse kommt, oder halt aufs Blog, was ja gelungen ist:) Loben tue ich da eher Polyvore, die zwar nix mit Suche zu tun haben, aber das Thema Bilder und Mode exzellent und sehr kreativ angegangen sind. Sowas würde einem Mode-Shop mit einer großen Produktauswahl weitaus besser zu Gesicht stehen als Pixsta. Wer mit Polyvore nix anfangen kann, tue sich eben Etsy.com an, die alles verblassen lassen, was es an Kreativität im Onlineshopping bis dato zu sehen gab. Die Möglichkeit nach Farben Produkte auszusuchen, ist mit Abstand gefühlt besser gelungen als bei Pixsta. Scheibe anschneiden, Jungs und vergesst mal die Technik, die führt so zu nix imho. Der Gedanke per se, mit Bildern zu arbeiten, ist imho exzellent! Nur das, was hinten rauskommt, das ist entscheidend.

Über den Autor

Robert Basic

Robert Basic ist Namensgeber und Gründer von BASIC thinking und hat die Seite 2009 abgegeben. Von 2004 bis 2009 hat er über 12.000 Artikel hier veröffentlicht.

16 Kommentare

  • Naja, zumindest haben die es versucht…
    BTW: gab es sowas nicht schonmal? Nur eben dass man ein Bild skizieren sollte und dann wurde etwas ähnliches gesucht? Die Version die ich meinte schien auch um Welten ausgereifter zu sein als das.

  • @Moritz, das ist lediglich eine Demo mit Echtprodukten, es geht ja ums Prinzip, und da Klamotten für ne Demo ideal geeignet sind, haben sie sich halt eben dafür entschieden. Nur Schuhe? Nö, in der Demo gibts ja genug anderes Zeugs.

  • polyvore ist eine super idee – nur in der umsetzung noch nicht wirklich sexy. Sowas sollten sich mal die großen Häuser wie Otto und co ansehen – für die dürfte es ja kein prob sein die fotos entsprechend so zu erstellen damit man so ne anwendung damit machen kann. Mit so „fremdfotos“ mal aus dem einen shop mal aus dem anderen shop is das schwer zu realisieren da was „hübsches“ zu bauen.

  • Schöner Beitrag um sich ne Scheibe abzuschneiden.

    Ich genehmige mir mal nen großen Happen 😉 Kann ja nur gut tun.

  • Funktioniert bisher nicht wirklich überzeugend. Aber anscheinend klappt das den Marktführer „anmachen“ für ein Stück Publicity immer noch. Wobei die Idee gerade für Online Shops durchaus interessant ist.

  • Die Idee ist eigentlich nur fuer Onlineshops gedacht und nicht fuer eine generelle Bildersuche, denn da kann das Prinzip nicht funktionieren.

    Das ganze funktioniert ja angeblich so dass dort die Struktur, Farbe, Groesse und sonstwas eines Objektes untersucht werden und dann aehnliche Objekte gefunden werden. Der Anfangspunkt ist in gewissem Sinne bereits ein Bild, meinetwegen der rote Schuh den Robert im Beispiel benutzt hat. Die Suche soll dann weitere rote Schuhe finden, unter denen man dann hoffentlich genau den roten Schuh findet den man sich vorgestellt hat (und dann natuerlich kauft).

    Selbst bei Onlineshops funktioniert das ganze dann nur eingeschraenkt, denn eine Kamera oder sogar eine Uhr kaufen die meisten Menschen nur sehr eingeschraenkt nach dem Aussehen.

    Auf eine generelle Bildersuche uebertragen kann das ganze dann meines Erachtens schon nicht mehr funktionieren. Wenn ich nach Bildern von Islay (da kenne ich mich nun mal am besten mit aus) will ich ja verschiedene haben, nicht lauter die gleichen oder aehnlichen Bilder. Deswegen hinkt der Vergleich mit Google ganz gewaltig.

  • ‚Ähnlich“ ist ja nicht immer eindeutig, je nachdem ob und wie man die Semantik betrachtet.

    Vermutlich ist das „Short-Beispiel“ so zu verstehen, dass nicht andere gleich aussehende Bilder gefunden werden, sondern andere dazu passende Objekte (Shirts, Schuhe, Armbanduhr, etc…).

    Der Algorithmus ist also schon (unfreiwillig?) hochentwickelt semantisch 🙂

  • Nein Andreas, es geht genau um aehnliche Bilder:

    „From a random starting point, users click on an image of an item of clothing, shoes or jewellery to return further images of items that are similar by colour, shape or texture.“

    Da wird es schwer sein von einem roten T-Shirt zu einer schwarzen Hose zu kommen, etwas das ja meines Erachtens durchaus gut zusammenpasst. Das weiss der Algorithmus aber meines Erachtens gar nicht. So wie ich das verstehe kann der Algorithmus eigentlich bestenfalls eine rote Hose finden. Moeglicherweise etwas das ich gar nicht will.

    Oder um zu dem Beispiel mit dem roten Schuh zurueckzukommen. Ein roter Schuh ist der Anfangspunkt. Der Algorithmus sollte dann rote Stiefel, rote Halbschuhe und rote Sandalen finden. Du moechtest meinetwegen rote Sandalen. Klickst Du dann auf die eine rote Sandale sollte der Algorithmus weitere rote Sandalen finden. Da gibt’s dann welche mit duennen und welche mit dicken Riemen. Du klickst auf eine mit dicken Riemen, dann sollten mehr (oder nur noch) Modelle mit dicken Riemen angezeigt werden. Und aus denen suchst Du Dir das Modell aus dass Dir am besten gefaellt.

  • Das ganze ist eigentlich recht einfach, man lässt die Farbwerte aus den Bildern an verschiedenen Punkten auslesen und ermittelt einen durchschnitts oder maximal wert, die wert lassen sich dann Farben zu ordnen und schon erfolgt eine solche Suchfunktion. Mit den richtigen Programmierkenntnissen ganz einfach umsetzbar.