Suche

Im Interview mit Simon Graw

Schließen

Simon Graw ist Mitgründer und einer der beiden Geschäftsführer des in Köln ansässigen Start-ups Robidia. Wir unterhielten uns mit ihm über autonome Roboter für die Videoproduktion, die Schwierigkeiten bei der Investoren-Suche und die Vorteile, die eine Teilnahme am NUK Businessplan-Wettbewerb mit sich bringt.  

 

Erklären Sie doch bitte mal einem Laien, womit Sie in Zukunft Geld verdienen wollen.

Im „Tagesschau“-Studio und anderswo ist es längst Standard, dass es keine Kameramänner mehr gibt, sondern Kamera-Roboter, die vorprogrammierte Fahrten haben. Der Nachrichtensprecher oder Moderator weiß genau, wo er wann zu stehen hat, und die vollautomatisierte Robotik ist entsprechend programmiert. Das klappt problemlos und ist vollkommen ausreichend. Wenn wir jetzt aber eine Sendung nehmen, in der ein bisschen mehr Unvorhersehbarkeit herrscht, weil die Mitwirkenden nicht immer genau wissen, wo sie sich in der nächsten Minute aufhalten werden, oder weil ein Hund reinkommt, der sowieso keine Ahnung hat, wo er zu stehen hat, dann reichen vorprogrammierte Kamerafahrten nicht mehr aus. Unsere autonome Robotik kann da ein bisschen mehr Flexibilität reinbringen, weil der Roboter weiß, welcher Person – oder welchem Hund – er zu folgen hat. Wir gehen also einen Schritt weiter als das, was man aus dem Tagesschau-Studio kennt. Ansehen ->

Wie erkennt der Roboter denn, wem er zu folgen hat und wohin?  

Das macht er über Algorithmen. Bilderkennung, Objekterkennung, Gesichtserkennung – eben das, was man heutzutage so unter dem Überbegriff KI findet. Über verschiedene Sensoren sieht der Roboter die Umgebung, unter anderem auch die Kamera selber, und über die nimmt er dann Muster, Menschen und Objekte wahr.

Und der Roboter funktioniert mit den gängigen Kameras?  

Ja, da kann man jede mögliche Kamera draufsetzen.

Machen Sie Kameramänner damit überflüssig. 

Es wird jetzt schon viel automatisiert. Immer mehr. Es gibt einen klaren Trend zur Automatisierung. Unser Roboter kann Aufgaben übernehmen, die nicht besonders kreativ sind, sondern einfach nur fehlerfrei erledigt werden müssen. Kameramänner können sich dann auf den wirklich kreativen Part ihrer Arbeit konzentrieren. 

Ich habe mal einen sehr treffenden Spruch dazu gehört: Nicht die KI ist die Konkurrenz des Menschen. Sondern der Mensch, der die KI beherrscht, ist Konkurrenz für den Menschen, der dies nicht tut. Wir sehen KI und entsprechend unsere Robotik nur als Werkzeug.

Wie sind Sie auf die Idee des autonomen Kamera-Roboters gekommen?

Die Idee kommt von meinem Mitgründer Masih Jakubi. Er arbeitet schon seit vielen, vielen Jahren in der Medienindustrie, hat einen afghanischen Sender in Essen technisch mit aufgebaut und war dort auch technischer Leiter. Er kennt also die vielen kleinen Probleme und Herausforderungen, die im Produktionsalltag so auftauchen. Außerdem war er einige Jahre in der Forschung tätig, an der Hochschule Düsseldorf, und hatte als wissenschaftlicher Mitarbeiter dort mit vielen Themen zu tun, die bei uns eine Rolle spielen – zum Beispiel angewandte Mathematik und Signalverarbeitung.

„Wir hatten relativ schnell den Gedanken, zusammen ein Business zu starten.“

Wann ist aus ihm und Ihnen ein Team geworden? 

2014. Ich habe damals nicht nur Maschinenbau und Wirtschaftswissenschaften studiert, sondern auch Musik gemacht und wollte einen eigenen YouTube-Kanal aufbauen. Ein Freund hat Masih und mich dann zusammengebracht. Ich hatte die Inhalte, er wusste, wie man Videos produziert. Wir hatten relativ schnell den Gedanken, zusammen ein Business zu starten, und sind dann verschiedene Ideen durchgegangen, von der Social-Media-Beratung über Hörgeräte hin zum autonomen Kamera-Roboter. Bei dem sind wir geblieben. Seit 2016 sind wir an der Entwicklung dran, und im März 2019 haben wir unser Unternehmen gegründet. Heute haben wir einen Festangestellten und vier Studenten, die für uns arbeiten.

2019 haben Sie den 23. NUK Businessplan-Wettbewerb gewonnen. Inwieweit haben Sie davon profitiert?

Wichtig war erst einmal die Anerkennung. Wir befanden uns damals schon auf Investorensuche, und Hardware-Themen sind immer ein bisschen schwierig bei Investoren unterzubringen. Da ist es schön, wenn man von einer kompetenten Jury zu hören bekommt: „Das, was Ihr macht, ist gut.“ Hilfreich sind auch die Verbindungen, die dadurch entstanden sind. Und es gab ja auch einen kleinen Preis, den wir sehr gut gebrauchen konnten, denn das, was wir machen, ist ziemlich kostenintensiv. Unabhängig davon, dass wir gewonnen haben, hat uns auch die Unterstützung bei der Entwicklung des Businessplans sehr geholfen.

„Wir sind gerade dabei, ein Event speziell für Hardware-Start-ups und Investoren zu organisieren.“

Warum erschweren Hardware-Themen die Investoren-Suche?

Man hat eine lange Entwicklungszeit und auch lange Entwicklungszyklen. Wenn bei einer Software ein Problem auftritt, kann man innerhalb eines Tages eine Lösung programmieren und diese dann als Update hinterherschieben. Wenn es bei der Hardware ein Problem gibt, ist es durchaus möglich, dass die Lösung erst in der nächsten Iteration der Produktion eingeführt werden kann. Außerdem ist die Entwicklung und Herstellung eines Hardware-Produkts kapitalintensiver. Deshalb setzen viele Investoren lieber auf Software-Start-ups. Aus diesem Grund sind wir gerade dabei, ein Event speziell für Hardware-Start-ups und Investoren zu organisieren, die bereit sind, darin zu investieren.

Wann soll das stattfinden? 

Ende Juni. Für die Start-ups endet die Anmeldephase aber bereits Ende April.

Warum so früh?

Wir wollen das hervorheben, was Hardware-Start-ups ausmacht: dass es da etwas Haptisches gibt, etwas, das man zeigen kann. Das machen wir mit Videos. Im ersten Video wird in 30 Sekunden erklärt, was das Produkt kann. Das zweite ist das mit dem klassischen Geschäftsmodell-Pitch und fünf Minuten lang. Wenn die Start-ups so etwas noch nicht haben, können wir die Produktion übernehmen. Das ist ja unser Metier. Und dafür brauchen wir halt den Mai und den Juni. 

Wegen Corona wird es wahrscheinlich ein virtuelles Event …

Ja. Außerdem wollen wir ja vor allem Investoren aus dem Ausland dazu holen, und für die ist Online natürlich sowieso interessanter.

Haben Sie mittlerweile Investoren gefunden?  

Noch nicht. Wir sind weiterhin mit einem Business Angel, den wir vom NUK Wettbewerb kennen, in Kontakt und hatten uns bei unserem Fachhändler-Partner auch schon mit ein paar anderen Business Angels getroffen, aber dann kam Corona und es hieß erst einmal: abwarten und gucken. Profitiert haben wir von dem Programm „NRW.Start-up akut“ der NRW.Bank. Momentan sind wir in der Vorbereitung einer weiteren Finanzierungsrunde. Wichtig ist, dass wir viele Kontakte haben, da wird sich schon was ergeben. 

„Wir stecken die Dinger selber zusammen.“

Gibt es denn schon Kauf-Interessenten?

Wir haben eine Partnerschaft mit Teltec, dem marktführenden Fachhändler für Medientechnik, und kooperieren mit Qvest Media hier in Köln, einem der beiden großen Studioplaner; da schauen wir, ob wir mit unserer Technologie in bestimmte Projekte integriert werden können. Sobald die Corona-Regeln gelockert werden und die Kunden wieder leichteren Zugang zu den Fachhändlern haben, werden wir mit unserem Kamera-Slider unser erstes Produkt auf den Markt bringen. Daran haben schon diverse Leute ihr Interesse geäußert. Wie groß das tatsächlich ist, wird sich dann zeigen.

Was ist ein Slider?

Die Kamera kann auf einer Schiene hoch und runter fahren und dabei auch schwenken. Ansehen ->

Wer stellt den Roboter her?

Wir. Am Anfang wird unsere Stückzahl nicht ganz so groß sein, das wird sich aber mit der Zeit ändern. Wir haben uns jedenfalls neulich einen 3D-Drucker gekauft, um bestimmte Bauteile herstellen zu können. Zudem haben wir einen Kölner Hersteller, der uns die Schiene und den Motor dazu liefert, und dann holen wir uns noch ein paar Motoren sonst wo her und stecken die Dinger selber zusammen. Später wird die Produktion natürlich an Auftragsfertiger ausgelagert werden.

Täuscht der Eindruck, oder ist die Entwicklung eines solchen Kamera-Roboters ziemlich komplex?

Wenn uns etwas beschreibt, dann das Wort Komplexität. Wir sind nicht die einzigen, die versuchen, diese Technologie in den Markt zu bringen. Was uns auszeichnet ist, dass wir sehr stark in die Hardware gehen. Die Großen – Panasonic, Sony, Nikon – und auch das ein oder andere Start-up haben schon Produkte auf dem Markt, die über einen Schwenkkopf einer Person folgen können. Das machen die rein über Software, das heißt: Die Software sieht, was die Kamera aufzeichnet, und lässt dann die Erkennungsalgorithmen durchlaufen. Wir hingegen gehen wirklich auf die Hardware-Ebene, das heißt, die Elektronik muss mit den Recheneinheiten, den Motoren, den Sensoren und der Software harmonisiert werden, und das ist sehr komplex, weil man in sehr vielen Dimensionen denken muss. Das können die wenigsten. Nicht, weil sie nicht klug genug wären oder so, sondern weil das sehr multidisziplinär ist, und es gibt nur wenige Leute, die diese verschiedenen Disziplinen beherrschen. Mein Kollege ist ein solcher Sonderfall, aber wir haben auch noch Expertise von außen reingeholt, mit unserem Angestellten und den Studenten.

Welche Vorteile hat Ihr Modell gegenüber denen der Konkurrenz?

Das eine sind Kosten. Das Modell von Panasonic zum Beispiel setzt einen Rechner voraus, der 6.000 Euro kostet. Wir hingegen bewegen uns da in einem Bereich von 1.000 bis 2.000 Euro, weil wir die Recheneinheit und die Elektronik sehr viel besser aufeinander abstimmen können und die Recheneinheit so auswählen können, dass man nicht eine teure Grafikkarte der neuesten Generation braucht. Das andere ist das Potenzial weiterer Bewegungsmöglichkeiten. Das, was die Schwenkköpfe machen können, ist: schwenken. Sie können nicht ihren Ort verlassen. Das geht nur, wenn man an der Hardware arbeitet und Sensoren einsetzt – so wie wir das machen. Das Dritte ist, dass wir bei den Anwendungen, die der Schwenkkopf auch abdeckt, ein bisschen weitergehen können. Weil wir Infrarot-Sensoren einsetzen, reagiert unser Roboter zum Beispiel nicht auf Lichtverhältnisse. Bei anderen Modellen bekommt die Kamera sofort Probleme, sobald ein Raum abgedunkelt wird.

Warum befindet sich Ihr Start-up in Köln?

Ich habe in Aachen studiert und bin nach Köln gezogen, weil ich Lust auf die Stadt hatte. Das, was ich an Köln sehr schätze und was auch unser Start-up ausmacht, ist Diversität. In unserem Unternehmen finden sich Leute aus Kolumbien, China, Tunesien, ich selbst habe einen Hintergrund in Großbritannien, mein Kollege in Afghanistan, und das sehe ich auch in Köln. Die Leute hier sind sehr bunt. Ich fühle mich hier pudelwohl. Und was jetzt unser Business angeht: Wir haben hier Qvest Media, wir haben hier die RTL Gruppe – da sind wir natürlich auch sehr happy.

„Ich fühle mich in Köln pudelwohl.“

Aktuelles

Alle News