Hvis kunstig intelligens er teknologi som kan sanse omgivelsene, forstå sammenhenger, handle og lære av erfaring, så er kunstige intelligens ikke bare et spørsmål om nevrale prosesser, ansamling av store datamengder i minner og effektive algoritmer for å gjenfinne og behandle data. Kunstig intelligens er der med også systemets evne til å samhandle med omgivelsene. Det vil si å utstyre systemet med sanser. Dette kan være de sansene som vi mennesker har, men det er ingenting i veien for å utvide sansene til å omfatte signaler fra omgivelsene som mennesket ikke har noe bevisst forhold til for eksempel bølgefrekvenser som vårt sanseapparat ikke registrerer enten det er knyttet til lyd eller lys eller å omdanne informasjon fra omgivelsene til andre opplevelser enn de menneskene har i dag for eksempel ved å omdanne lysfrekvenser til hørselsopplevelser eller omvendt.
Filosofer og vitenskapsfolk har opp gjennom tidene spekulert på hva som skjer med vår tenkeevne om sanseinntrykkene forsvant. I dag er man enig om at sanseberøvelse vil forandre vår evne til å tenke. Den amerikanske forskeren og psykiateren John C. Lilly har utviklet en helt spesiell tank for å forske på dette. Tanken er lyd- og lystett. Forsøkspersonen flyter i vann som holder nøyaktig samme temperatur som kroppen.
Det viser seg at uten sansene begynner hjernene å hallusinere. Hjernen vår begynner å dikte opp opplevelser hvis den ikke får informasjon fra sansene. Dette og lignende forsøk har gjort at utvikling av kunstige sanseorganer må sees som et ledd i utviklingen av kunstig intelligens og eventuelt bevissthet.
Etter hvert har vi fått en rekke forbedringer av mennesket sanseapparat også kalt kyborg utviklingen. Det vil si at mennesket får bedre eller nye sanser et eksempel er Liviu Babitz som er en av hjernene bak Cyborg Nest, et selskap som har spesialisert seg på å utvikle kunstige sanser. En av de mer uvanlige produktene er en mikrobrikke som gjør eieren om til et menneskelig kompass ved å vibrere når man vender seg mot nord.
Kunstig syn baserer seg på at bilder fra fjernsynskameraer eller andre mer spesialiserte kameraer overføres til digital form. På den måten kan man sammenligning det som observeres med bilder som allerede er lagret i datamaskinen. Denne teknologien ble tatt i bruk allerede i slutten av 1980-årene for kvalitetskontroll i industrien. Den samme teknologien, ofte kalt maskinsyn, blir også tatt i bruk i industrielle roboter, for å gjøre disse bedre i stand til å velge riktig komponent og monterer dem på rett sted. Et av hovedproblemene med kunstig syn har vært de enorme mengder data som er involvert. Stadig kraftigere datamaskiner og forbedrede komprimeringsteknikker har i løpet av de siste ti årene gitt store fremskritt på dette området.
I dag finnes det en rekke datamaskiner eller roboter som har organer for å samhandle med omgivelsene. Mest kjente er kanskje robotene som sendes til månen og mars. Disse kan «se» omgivelsene ikke bare i det bølgespekteret som det menneskelige øye registrerer, men også infrarøde varmestråler og gammastråling. Disse maskinene kan gjenkjenne hindringer og dermed manøvrer uten om disse.
Moderne datamaskiner kan høre og tolke lyd og omdanne digital informasjon til lyd – talende roboter. Forskningsaktiviteten på det feltet har vært å sette datasystemer i stand til å forstå dagligtale, såkalt talegjenkjennelse. Målet har vært å sette maskinene i stand til å benytte en språkform, både skriftlig og muntlig, som ligger så nært som mulig opp til dagligtalen.
Systemer for talegjenkjennelse ble tidlig tilgjengelig for personlige datamaskiner. Disse tillot styring av en del av maskinens funksjoner ved hjelp av talte kommandoer. For å muliggjøre toveiskommunikasjon mellom datasystem og bruker ble det også tidlig gjort forsøk på talegenerering, dvs. at datasystemet kunne gi tilbakemelding til brukeren i form av menneskelignende tale.
Det hele kan høres sykt ut. Men kanskje er Harbisson et fascinerende glimt av fremtid.