Das Schweizer Startup Faceshift hat seine neuartige Technologie für Gesichtserkennung und Formung von 3D-Avataren bereits bei den grossen Studios in den USA zur Verwendung bringen können. Thibaut Weise erklärt im 9-Fragen-Interview, wie sein Unternehmen weiter wachsen kann und welche Märkte Potenzial versprechen.
Ihr habt an der Computex zusammen mit Intel euer RealSense 3D Sensor gezeigt – was war das Feedback der Besucher?
Wir hatten ein sehr positives Feedback an der Konferenz und grosses Interesse von verschiedenen Integratoren, also Unternehmen, die die 3D Sensoren von Faceshift in ihre Laptops einbauen wollen.
Wo wird eure Technologie momentan und künftig eingesetzt?
Im Moment wird unsere Technologie als Teil von „faceshift studio“ von Studios wie EA oder auch Microsoft Game Studios verwendet, um In-Game Animationen zu erstellen, und von Firmen wie DreamWorks oder Framestore zur Erstellung von Filmen. In Zukunft werden wir auch den Spielern selber die Möglichkeit geben, ihre Charaktere in Spielen zu animieren. Das bedeutet, als Spieler kann ich die Mimik meiner Mitspieler auf ihren Charakteren sehen.
Wie gross ist das Feld von Avatar-basierten Computerspielen?
Es gibt verschiedene Bereiche in Computerspielen wo Avatare verwendet werden. Das beste Beispiel sind natürlich MMORPG (World of Warcraft, etc), aber auch klassische Multiplayerspiele wie zum Beispiel Call of Duty. Wir sprechen hier von Millionen von Spielern weltweit. Dann gibt es den Bereich Serious Games, in der bei der Kommunikation künftig noch mehr Bedeutung beigemessen wird.
Ist ein Einsatz auch in anderen Feldern – beispielsweise im Medizinalbereich – denkbar?
Auf jeden Fall! Und wir haben auch entsprechende Anfragen. Im Medizinalbereich gibt es eigentlich zwei Hauptaspekte. Einerseits ist die Avatarkommunikation, die in vielen Therapiefällen interessant sein kann. Als Beispiel die Therapie für Patienten mit Asperger-Syndrom oder auch in Fällen, bei denen es um Anonymität geht – wie beispielsweise zur Therapie von traumatisierten Soldaten. Ausserdem erkennt unsere Software die 3D Struktur des Gesichtes was es speziell für pre- und postoperative Analysen und Simulationen nutzbar macht.
Was unterscheidet eure Technologie von anderen bzw. macht sie einzigartig?
Das Hauptaugenmerk unsere Technologie ist die genaue Analyse von Gesichtsausdrücken. Unsere Technologie basiert darauf auf 3D Kameras um die genaue Geometrie des Gesichtes erfassen zu können. Es gibt auch viele sehr gute 2D Analysemethoden, aber das Problem ist dort immer eine gewissen Ungenauigkeit wegen der fehlenden geometrische Information.
In diesem Video wird immer wieder von der Einfachheit der Technologie gesprochen. Was ist denn so einfach daran?
Die Einfachheit besteht in der Benutzung der Technologie: Das bedeutet, dass man mit einer Kamera und unserer Technologie ganz einfach die Gesichtszüge einer Person aufnehmen und diese auf einen Avatar übertragen kann. Der Nutzer muss nur ein paar Ausdrücke am Anfang machen, und schon kann er in Echtzeit einen Avatar steuern.
Ist die Technologie nur möglich, wenn der Computer/Laptop über eine teure Kamera verfügt?
Unsere Software stützt sich auf 3D Kameras, die aber den grossen Vorteil haben, dass sie ein sehr genaues Gesichtstracking ermöglichen. Die Kameras waren bisher relativ teuer. Das hat sich aber mit der Massenproduktion und Integration in Laptops etc. geändert. Die ersten Laptops und Tablets mit integrierten 3D-Kameras werden noch in diesem Jahr auf den Markt kommen.
Mit welchen Partnern seid ihr konkret in Verhandlungen (denke sicherlich auch amerikanische Unternehmen)?
Leider dürfen wir darüber keine Informationen rausgeben.
Seid ihr auch noch auf der Suche nach Investoren? Welche Runden habt ihr schon abgeschlossen?
Wir haben bis jetzt eine Seed-Finanzierung als Wandeldarlehen. In der Tat sind wir nun auf der Suche nach Investoren um den Endkundenmarkt anzugreifen.