Mennesker har længe været herre af fingerfærdighed, en færdighed, der i vid udstrækning kan krediteres til hjælp fra vores øjne. Roboter, i mellemtiden, er stadig ved at fange op. Der er helt sikkert sket fremskridt: i årtier har robotter i kontrollerede omgivelser som samlebånd været i stand til at samle det samme objekt igen og igen.
Nylige gennembrud i computersyn har givet robotter mulighed for at lave grundlæggende forskelle mellem objekter, men alligevel kan robotter ikke rigtig forstå objekters former, så de kan ikke gøre meget for at hente dem hurtigt op.
MIT datavidenskab og kunstig intelligenslaboratorium (CSAIL), forskerne rapporterede i et nyt papir, de har gjort store fremskridt på området, systemet kan lade robotten for at kontrollere tilfældige objekter og visuelt vide nok om dem, og i tilfælde af havde aldrig set dem udføre specifikke opgaver.
Systemet, kaldet "Dense Object Nets" (DON), ser på objekter som samlinger af punkter, der fungerer som "visuelle køreplaner" af slags. Denne fremgangsmåde gør det muligt for robotter at forstå og manipulere elementer bedre og vigtigst muligt giver dem mulighed for selv at hente en bestemt genstand blandt en rod af lignende genstande - en værdifuld færdighed for de slags maskiner, som virksomheder som Amazon og Walmart bruger i deres lager .
For eksempel kan nogen bruge DON til at lade en robot forstå en bestemt position på et objekt - som en tunge. Siden da kunne den se en sko, som den aldrig havde set før og formåede at få fat i tungen.
Holdet ser på potentielle anvendelser ikke kun i produktionsmiljøet, men også i hjemmet. Imagine giver systemet et billede af et ryddeligt hus for at holde det rent, mens du arbejder, eller ved at bruge et billede af en plade, så systemet kan fjerne dine tallerken, mens du er på ferie.
Det er også bemærkelsesværdigt, at ingen af dataene faktisk blev mærket af mennesker; Systemet er snarere "selvstyre", så det kræver ikke nogen menneskelige kommentarer.





