Kopiranje ljudskog ponašanja očita je smjernica u robotici jer roboti uistinu jesu sofisticiraniji što više djeluju kao ljudi u svakom svom pokretu. Ali, u ovom trenutku je oponašanje ljudi još daleko od realizacije, no s vremenom će doći do toga, u to nema nikakve sumnje. I za početak, učenje o ljudima obavljat će se kroz YouTube.
Naime, nova istraživanja umjetne inteligencije na sveučilištu California na Berkeleyu u Sjedinjenim Američkim Državama uspjela su postići da robot pregledom video sadržaja na YouTubeu oponaša pokrete koje vidi. Primjerice, riječ je o spotu "Gangnam Style" i plesu koji se u njemu može vidjeti.
Na sličan način je Google "trenirao" svoj AlphaGo kad ga je pripremao za dvoboj sa svjetskim prvakom u igri Go. Dakle, cilj je da se što bolje uspije oponašati što čovjek čini, a zatim da se može i predvidjeti taj pokret te na kraju da se može potpuno simulirati što ljudi čine. Kad se tako nešto dovede do savršenstva, roboti će imati ljudske pokrete i tad će robotika ući u jednu potpuno novu eru, bolju no sve ikad viđeno.
Zapravo, sve ovo nije toliko novo, simuliranje pokreta pomagalo je filmskoj industriji, pomagalo je u testiranju sudara i slično. Ali, sve bi to bilo izvedeno na računalu, nije se moglo implementirati "fizički" u humanoidnog robota, koji bi potom sve to izvodio na identičan način kao likovi na zaslonu.
Stoga, da se ode korak dalje, tim istraživača s Berkeleya je izveo sustav zvan DeepMimic, koji se oslanja na kopiranje pokreta, ali uz jednu bitnu iznimku. Dodali su detalj - rotiranje slike svakog frejma. Na taj način računalo ima bolje razumijevanje kako se pokret izvodi, što je nužno u fizičkom segmentu kopiranja pokreta.
S vremenom će se zasigurno usavršiti cijelo ovo istraživanje, provest će se detaljni testovi i kroz pet godina realno je dobiti humaniodne robote čiji pokreti uvelike podsjećaju na ljudske.