• Naukowcy chcą obdarzyć maszyny kolejnym naturalnym zmysłem
  • Dotyk to biznes. Inwestują weń m.in. Jason Toy z projektem SenseNet czy inżynierowie z MIT
  • Sztuczne ręce będą niezastąpione w fabrykach i centrach dystrybucji

Roboty lepiej od nas widzą i słyszą, potrafią też wyczuwać zapachsmak. Dotyk był ostatnim z pięciu ludzkich zmysłów, którego maszyny nie znały. Był, ponieważ już kilka lat temu badacze zakasali rękawy, by skupić się na danych związanych z dotykiem.

Toy story

Zachwycony możliwościami sztucznej inteligencji Jason Toy technolog z Denver, od dekad pochłaniał książki na temat reguł myślenia, filozofii, lingwistyki i logiki. Czytał wszystko, co dotyczyło pracy ludzkiego mózgu, studiował też matematykę i informatykę na Northeastern University. A wiedzę praktyczną zdobywał, pomagając w laboratoriach neurologicznych i współpracując z naukowcami.

Możliwości nowych technologii tak go zafascynowały, że założył kilka start-upów, w tym Somatic. Firma jest obecnie uznanym konsultantem w zakresie uczenia maszynowego, w tym projektów głębokiego uczenia się.

Ludzka „ostrość widzenia dotykiem” wynosi około milimetra: wyczujemy dwa ukłucia lub dwa okruchy oddalone od siebie na taką odległość. Żelowy czujnik MIT jest 100 razy czulszy, a palec z robotycznej ręki Toya nawet 200 razy

Do badań nad zaangażowaniem sztucznej inteligencji posługiwanie się przez roboty dotykiem zainspirowała go autobiografia głuchej i niewidomej Helen Keller. W książce „The Story Of My Life” („Historia mojego życia”) opisała ona tzw. inteligencję dotyku:

„Każdy przedmiot kojarzy mi się z właściwościami, które w niezliczonych kombinacjach dają mi poczucie siły, piękna. Palcami widzę tylko bardzo małą część powierzchni i muszę nieustannie gładzić ją, zanim mój dotyk uchwyci całość. Jeszcze ważniejsze jest jednak, aby pamiętać, że moja wyobraźnia nie ogranicza się do pewnych punktów, miejsc i odległości. Składa jednocześnie wszystkie części tak, jakby widziała lub wiedziała, zamiast je odczuwać”.

Kontury, tekstury, kształty

Pomysł zrodził się w 2015 roku. Dwa lata później Toy uruchomił projekt finalnie nazwany SenseNet, który skupia się na szkoleniu sztucznej inteligencji do interakcji z otoczeniem przez dotyk.

System koncentruje się na konturach, teksturach, kształtach, twardości i rozpoznawaniu przedmiotów za pomocą dotyku. To baza danych obiektów 3D oraz symulator dotykowy. Toy zbudował też robotyczną rękę, której palce mają pełny zakres ruchu. Czujnik dotykowy umieścił na czubku palca wskazującego.

Ręka uczy się, wykorzystując oprogramowanie o nazwie Coach (Trener), testową platformę do uczenia maszynowego dostarczoną przez Intel.

Naukowiec uważa, że wkrótce sztuczne ręce będą nie do zastąpienia w fabrykach i centrach dystrybucji. Maszyny czujące dotykiem mogą zostać sprawnymi pakowaczami, będą w stanie odzyskiwać części, sortować, łączyć ze sobą różne elementy. Słowem, będą zdolne robić wszystko to, co wymaga delikatności i większego wyczucia, a nie tylko mechanicznej siły.

Mechaniczny synesteta

Innym wynalazkiem, który obdarza roboty zmysłem dotyku za pośrednictwem technologii i uczenia maszynowego, jest GelSight. To superczujnik opracowany w Laboratorium Nauk Komputerowych i Sztucznej Inteligencji w amerykańskim Massachusetts Institute of Technology (MIT).

Adres filmu na Youtube: https://www.youtube.com/watch?v=w1EBdbe4Nes

Zadanie dla robota wykorzystującego technologię GelSight: włóż wtyczkę do gniazda USB…
Źródło: Massachusetts Institute of Technology (MIT) / YouTube

GelSight odwzorowuje obiekty 3D poprzez kontakt fizyczny i nacisk. Czujnik montowany na robocie to sześcian, który składa się z płyty z przezroczystej syntetycznej gumy, pokrytej z jednej strony metaliczną farbą. Każda ścianka sześcianu jest oświetlana innym kolorem przez niewielkie diody. Kauczuk dopasowuje się do obiektu, do którego jest dociśnięty. Gdy żelowata powierzchnia jest deformowana, światło odbija się od metalicznej farby, po czym wychwytuje je kamera, zamontowana na tej samej powierzchni sześcianu co świecące diody.

GelSight jest synestetą – analizując intensywność wielobarwnego światła algorytmy mogą wywnioskować, że na powierzchni danego obiektu są wypukłości lub wgłębienia.

– System ma kolorowe światła świecące pod różnymi kątami i odblaskowy materiał. Patrząc na kolory, komputer może określić, jaki jest kształt przedmiotu – wyjaśnia Ted Adelson, profesor nauk o wizji w Katedrze Brain and Cognitive Sciences w MIT.

Po owocach go poznali

Dziesięć lat temu grupa naukowców pod jego przewodnictwem opracowała pierwszy czujnik GelSight. Od tamtej pory jest wciąż ulepszany, a obecnie – montowany do robotycznych ramion.

Dokładność tej techniki naukowcy sprawdzali porównując na przykład, jak człowiek i maszyna oceniają twardość różnych owoców i warzyw. Robot wyposażony w czujnik GelSight okazał się w tym równie precyzyjny, jak ludzie.

Czy i w tym maszyny nas prześcigną? Już to zrobiły. Ludzka „ostrość widzenia dotykiem” wynosi około milimetra. To oznacza, że wyczujemy dwa ukłucia lub dwa okruchy oddalone od siebie na taką, ale nie mniejszą odległość. Żelowy czujnik MIT jest 100 razy czulszy, a palec robotycznej ręki Toya nawet 200.

Skip to content