Wetenschappers van de Purdue University in de Amerikaanse staat Indiana werken aan een chip die kunstmatige intelligentie naar wearables als smartphones en Google Glass moet brengen. De technologie kan onder andere ingezet worden om automatisch de inhoud van foto's en video's te analyseren. Tot op heden is er voor de zogenaamde 'deep learning'-technologie veel processorkracht vereist. Zo vereiste een experiment van Google waarbij automatisch katten in YouTube-filmpjes gedetecteerd werden de inzet van 16.000 processors. Daardoor wordt deep learning momenteel alleen toegepast door bedrijven die over voldoende rekenkracht kunnen beschikken, zoals Google, Facebook en Baidu. De wetenschappers werken nu aan manieren om deep learning binnen bereik van de gewone consument te krijgen. Het idee is om de kunstmatige intelligentie onder te brengen in een neurale coprocessor, die naast de hoofdprocessor het specialistische werk doet, maar dan veel efficiënter en energiezuiniger. Eenmaal verwerkt in een wearable zoals Google Glass zou een dergelijke coprocessor bijzondere vormen van beeldherkenning mogelijk maken. Zo zou je volgens de onderzoekers kunnen zoeken op 'foto's met rode auto's' of 'een foto van een zonnige dag'. Er zijn ook toepassingen denkbaar waarbij apps een bepaalde actie uitvoeren zodra een specifieke persoon of een bepaald object herkend wordt. Momenteel is een prototype van de coprocessor al vijftien keer efficiënter bij het verwerken van beelden dan een conventionele grafische processor. Als gevolg van verdere optimalisaties kan dit nog minstens een factor tien beter worden, denkt een van de onderzoekers. Uiteindelijk wil de onderzoeksgroep de technologie te gelde maken door het intellectueel eigendom te verkopen aan bedrijven als Qualcomm, Apple en Samsung. (bron: MIT Technology Review)