Abstract Zoom filter

This year many of us were forced to work at home. We’re using zoom a lot. It has benefits. A zoom session is efficient, but that’s also one of the disadvantages. In a group chat we’re missing the possibility to occasionally say or whisper something to our neighbour. Yes, you can request to be placed into a seperate break-out room, but that would put a lot of weight on a simple question like: how was your holiday? We’re missing the moments around our coffee machines at the office. Students are missing their libraries where they’re studying, motivated by the presence of other students, even without talking with them. Can Zoom offer such a similar experience? What if you can’t concentrate on your study material when a camera is pointed at you? There’s a solution. This MeetingPoint zoom-filter lets you be present – and feel the presence of others, without being in the picture yourself. Why such a basic avatar? Well, if you’re really using this filter to study and to have others keep an eye on your concentration, you don’t want to spend hours on configuring and styling your virtual representation. It’s for that reason that this filter has so little functionality, but thereby it hopes to be really functional.


16 sep 2020


Cross Reality @ _V2 Rotterdam

An evening on Art & Augmented Reality, part of ‘A Crash Course in Art & Media Technology’, a series of four events examining the intersection of art, technology, science and society.


sep 2020


NFF Conferentie: Life As We Know It

Panel: Futurotheek

PAST:


apr 2020


Urban Stories – Pakhuis de Zwijger

During a live-cast on May 26th I’ll talk about my PONG “>augmented reality filters to be used during Zoom/Skype videoconferencing.


apr 2019



Dutch: “Vooruitlopen met AR”

Artist Talk / Tetem Enschede


Mei 2019


Gogbot cafe: Big Data is watching you

Tetem / Enschede


Okt 2019



NS Virtual AR/VR conference

Novi Sad, Serbia


Okt 2019


Data Battle

IMPAKT / Cirque du Data


mrt 2019



11e Nationaal Mediawijsheid Congres

Bouw en ervaar je eigen algoritme — “IF_this_THEN_I”

15:30-16:30 & 16:30-17:30


mrt 2019



Future Interfaces

Panel: Controlling Datapolis (Sat 23.02 11:30)
Power Structures in Augmented Realities and Digital Urban Landscapes


feb 2019



Videonale.17

Panel: Controlling Datapolis (Sat 23.02 11:30)
Power Structures in Augmented Realities and Digital Urban Landscapes


jan 2019



Open Tuesday

Is augmented reality toepasbaar voor Rijkswaterstaat?


Sept 2018


Zaandam Valley 2018

De augmented consument


March 2018


Facebook split-up?

Let’s fix some things to get ready for the age of the AR wearable


Jan 2018


Augmented Reality art

Book chapter: “Living and Acting in Augmented Words”


12 okt 2017



FutureAcademy


26 okt 2016 Dutch Design Week



Materials XL / Ruimte


10 nov



NVI jaarcongres 2016


June 2016



Northside Festival, Brooklyn NY

Mobile City Dialogues


24 may 2016



EU Open Innovation 2.0

Internet of Things, sensoring technology and augmented reality


2015



VICE

Interview


Apr 2016



IETM

Internet of things & augmented reality


6 apr 2016 Utrecht



Internet of Things

Internet of Things, sensoring technology and augmented reality


29 march 2016 Eindhoven



Beyond Open Data

“experience how gamification turns unexpected data into a source of inspiration”


3 feb 2016



#VRIHO

Virtual Reality in het Onderwijs


2 feb 2016



Educators & Tech NL Meetup

Pencil vs Pixel presentation


26 jan 2016 Bruxelles



Global Packaging Summit

out of the box talk


19 nov 2015



Rolinco “Leer van het verleden, investeer in de toekomst” event

Vrijetijdsbesteding over 50 jaar


11 nov 2015



Border Sessions

Join the Smart Citizens Revolution


15 okt 2015



Het Huis Utrecht

Virtual realities in the city


18 mei 2015



The Technology Expo

“Contextual technology will solve the augmented reality vs virtual reality debate”


9 juni 2015



VINT symposium

“De virtuele wereld breekt door”


18 mei 2015



Congres Podiumkunsten

De stad als virtueel podium (17:15)


12 mei 2015



Pioniers van de nieuwe stad

Bosch Architectuur Initiatief / SHINE festival


21 Apr 2015



IMG LAB

Appril / BNO event


Mrt 2015



Art Parc

Appril apps & art event


Sept 2014



Een blik op privacy met Google Glass

Groninger Forum


10/11 oct 2013



InsideAR

“If not, then yes”


Oct 8th 2013



Artist Talks

Lancering van het kunstenaars spekers bureau “Artist Talks”


27 sept 2013



Beijing Design Week

Smart City symposium


7 sept 2013



“Smart Viewers, Dumb Screens” – From Smart TV to Zero TV household

IBC session participant


4 sept 2013



Radio interview [DUTCH] “Zo niet, dan toch” festival

BNR Digitaal


8 sept 2013



Ruimtewandelen in het Park

Philips Observatorium Eindhoven 75 jaar


2013



DIY augmented reality

Firestarters Forum Amsterdam


April 2013



Globally Local

Remote Encounters conference


March 25th



Expanded Aesthetics

Crosslab – Willem de Kooning Academy


March 2013



Design Your Own Reality

Vodafone Firestarters on AR and 3D printing


Feb 2013



Augmented Reality & Biosensing


Hackybirthday – FACT Liverpool


March 2013



STRP – Artificial Life

In cooperation with DOTS Magazine


27-2-2013



Beamlab #28

Interactive augmented reality


Jan 2013


Creativity Forum – Saudi Arabia

“No need to enter the virtual world, it has entered ours”


20-12-12



PIPS:lab potator launch

Augmented reality introduction/presentation during PIPS:lab Potator launch


27 nov 2012



Augmented reality, een nieuwe publieke ruimte

[DUTCH] Korte presentatie na boekpresentatie “Beeldenstrijd in Crisistijd”


15 nov 2012



The future, or the end of augmented reality

Studium Generale – KABK The Hague


Oct 20th 2012



Emerce Eday

What doors are opened by augmented reality?


oct 2012



Cinekid for professionals

Augmented reality live-demo


Sat 22nd September 2012



ISEA2012 Albuquerque

“Touchscreens for plants and augmented life”


Sept 25th 2012



Dorkbot Sydney

Talk on augmented reality projects


10 Sept 2012



Second screen talk @ IBC conference

“Who’s the second screen now?” session


June 2012



Augmented Reality Summit – London

Presentation on Slideshare: “Engaging AR Experiences”


May 17th 2012



“Augment it!” – Stedelijk Museum @ Trouw gebouw

Curating an augmented reality exhibition in Trouw Amsterdam


Feb 2012



Clique e Ligue – Realidade Aumentada (Brasilian TV)

Talking about the NIMk/ArteMov artist-in-residency in Sao Paulo


Feb 2012



Periscope Event #4

Organised by Submarine and the Master of Film Programme of the NFTA


Jan 2012



PSV = Philips Sportvereniging Veldhoven [Dutch]

nieuwjaarsreceptie gemeente Veldhoven


Oct 2011



Share Festival – AR workshop

Bruce Sterling & Sander veenhof


Sep 2011



ISEA2011 Istanbul

“API for art”, art2.0 and the launch of a global artwork mash-up


Sep 2011



M.A.L workshop

Hangar.org Barcelona


Sep 2011



RE-wire conference Liverpool

“Investigating the Notion of the Art 2.0” by Kasia Molga and Sander Veenhof,


June 15th 2011



Transdigital Seminar 2011

“Open Your Mind” @ Timelab & Vooruit : New Concepts and Ideas


May 17/18th 2011



are2011 Augmented Reality Event, Santa Clara

Presentation about AR projects


May 20th 2011



Layar Day LA – Los Angeles

Workshop and symposium – Maarten Lens-FitzGerald, Bruce Sterling, Scott Fisher, Sander Veenhof


April 26-28 2011



Y.2 event – 48 hours Layar workshop

non-stop 48 hour augmented reality workshop


April 15th 2011



Lost & Found – a night of stray images and sounds

Presenting about the project realized during an exchange project with Art Bakery, Cameroon, Afrika


31 maart 2011, 19.30u



do it! move it! Temporary Stedelijk Museum Amsterdam

Avond over mobiele technologie en kunst


Februari 2011



Social Media Congress – Amsterdam

Talking about the radical new opportunies augmented reality offers to artists


feb 2011


Presentation of “Live Game of Life” at SDLX – Tokyo

2:00pm to 4:00pm Feb 4th – Keio-NUS CUTE Center, Hiyoshi Campus


jan 2011



Labtalk #35 – “An artist’s impression of AR technology”

Crossmedialab Hogeschool Utrecht


11 nov 2010



CHArt conference London – “Art 2.0”

Presenting “Investigating the notion of the Art 2.0” –

Kasia Molga and Sander Veenhof

Session 4 – dissemination – 15.30


6 nov 2010



Ignite Amsterdam #2 – MuseumN8 Mediamatic

20 x 15 sec presentation about augmented reality art invasion into the MoMA NYC


okt 2010



MiXM Crossmedia Network Event

Presenting AR projects


jun 2010



Pakhuis de Zwijger – Design the Change

Presenting NBEEP6 concept in the context of ‘Design for the other 90%’


may 2010



SETUP Utrecht – De kunstenaar als Homo Digitalis?

Nieuwe Grond kunstenaars komen bij SETUP digitaal ge�xplodeerde kunst onderzoeken

Te gast: GEERT LOVINK/ SANDER VEENHOF/ JONNET MIDDLETON (o.m)


november 2009



Artist-in-residence stay at Art Bakery in Cameroon, Afrika

Invited by HMK (HotelMariaKapel)
in Hoorn as part of an exchange program with Art Bakery.


15 oktober 2009



Presentation @ Pecha Kucha #11 Amsterdam

21:00h / Mediamatic / Vijzelstraat 68


september 2009



OBA Live radio – De kwestie: For security reasons

In de tentoonstelling “For Security Reasons” geven kunstenaars een kritische kijk op de laatste veiligheidsontwikkelingen. Te gast tijdens OBA Live op donderdagavond 3 september zijn de curator van Showroom MAMA Tim Braakman en kunstenaars Sander Veenhof en Harmen de Hoop.

Openbare Bibliotheek Amsterdam – 4th floor / 747 AM (Radio 5)


august 2009



ISEA 2009 – “Dimensional Mobility”

Talk on the experiments at the border of the virtual and real

Entertainment and Mobility sessions, Friday, 28 August 2009, Waterfront Hall

Jul 09, 2009 – 20:00 to 23:00



Presenting “Publicity Plant” project at Test_Lab: What Crisis?! V2 Rotterdam

Interview: what to expect from AR in the near future?

In recent months I received a few questionnaires asking me to reflect on the future of AR. The replies I gave are in this blog-post.

What excites you the most about augmented reality?

Thanks to augmented reality our world has turned into a programmable universe. That means a lot of new opportunities because any imaginable thing can now be realized, for real, just by programming. All that’s needed is technical skills and time, no need to invest in physical material. And that means it’s possible to work at an unparalleled large scale. The AR domain is without limits.

What do you recommend for people who want to get into the AR field?

People starting with AR development might experience a gap between the fabulous possibilities being depicted in conceptual (fake) AfterEffects movies and the tough reality of creating successful AR experiences in reality. AR is not an easy medium. It’s not just a matter of getting the technology right, it’s the tight relation to the physical reality that’s difficult.

Although the basic AR infrastructure is improving, such as better spatial tracking and object recognition services, there are a lot of other factors influencing the user-experience. The physical situation and the user are two highly unstable factors. A dynamically changing environment requires a very thorough, flexible and smart understanding of the space. But people standing on the wrong spot, pointing into the wrong direction or doing the wrong things, will lead to a failed AR experience too. Designing interactions on a screen is easy, it’s easy to detect slides and clicks. But working with interactions in the real world (without standing next to the person to assist) are a challenge of a different kind.

First-time AR creators should be ready to experience some setbacks. But don’t give up and turn to VR, just because you’re in full control there. Go for the challenge to make it happen in AR!

What are your predictions for the AR industry and technology in the next 2, 10, and 25 years?

2 years

In the next few years we’ll get a better understanding of the type of AR wearables on the market, and which one to wear in which situation and for which purpose. The heavy duty glasses equipped with 3D tracking sensors will be useful when we need virtual items positioned at specific spots in our physical surroundings. But lightweight AR glasses will be sufficient for most occasions. They’ll show notifications originating from the cloud, or they react when something is being detected in the camera feed. Sometimes this leads to an instant reaction, but the parsing of everything that’s in your vicinity is happening for another reason too. The “lost keys app” for example uses the data gathered from the ongoing analysis of everything that is within your field of view. But that information gathered throughout the day is also used to train our personalized AI cloud.

10 years

At first some people will be wearing their AR glasses once in a while. But they’ll experience that the usefulness of their device will increase rapidly the more they use it. AR wearables will learn a lot about their users by analyzing their environment and their behavior. As a result, the recommendations will become better, more relevant and more valuable. And that will be an incentive to wear the the device more often, so an acceleration of this process will occur, ending in a situation in which we’ll wear our glasses most of the time.

25 years

In 25 years from now the last hardware hurdles will be solved. People who objected against wearing AR glasses will eventually be equipped with build-in displays in their retina. Living in an augmented reality is going to be default for those that can afford it. The type of software and the clouds you’re in will define your quality of life. There will be a micropayment mechanism for the moments when AR will intervene in your life. And hopefully there will also be a public domain zone, where both creators and users can use AR with all of its powerful features without the constraints imposed by the commercial Big Tech companies. Their role of patent fighting entities and gatekeepers of our augmented world is one to be wary of.

What do you think will be the positive and negative consequences of living in an augmented reality future?

Augmented Reality will mean the whole world will get an update, with interfaces popping up whenever there seems to be a need for one. Actually, it’s us humans that will get an upgrade, empowering us with an additional intelligence that is pro-actively guiding is and advising us what needs to be done and what not. It will radically change the relation between us and the world around us.

But with all that technology in our life, it will be a challenge to be your own robot. We will be controlled by messages, notifications and instructions showing up in our Heads Up Displays, but will we still be in control of what’s controlling us? A negative consequence of living in a customizable AR future is that it’s a lot of work to configure yourself. And that means there is a risk that for some people it will be too much ICT, causing them to switch to auto-pilot mode and accepting all default suggestions and instructions. AR will play a major role in the increase of the influence of AI on our everyday life. And although we might experience a perfect life in the future, that’s only valid from an efficiency perspective judged by an algorithm of which we don’t oversee the core values or working.

How to make sure that our future AR world will be valuable to us humans, instead of the other way around?

The commercial potential of AR is huge. For Big Tech it’s going to be very attractive to take control of the ‘eyeballs’ of the whole world population. But it would be a sad outcome if such a marvellous medium would become the domain of bussiness only. Therefore it’s important that we keep an eye open for AR apps and experiences that might not have a proper bussinessmodel, that therefore might not be as shiny as the high investment apps. But to keep the AR universe an open playground for everyone, it’s important that we stimulate a variety of creators by being an audience for them too. Besides a lot of functional purposes and meaningful use-cases, there is are a lot of opportunities with AR in the worlds of the arts too.

Augmented reality screensaver

Vroeger werden screensavers beperkt door de kaders van het scherm. In augmented reality ontbreekt die begrenzing. De AR screensaver (voor als er ergens geen AR is, en dat is best vaak het geval nog) beweegt zich vrijelijk door de 3D ruimte. Rotterdam Centraal vormt trouwens een zeer passend decor!

BNR Digitaal over “Be Your Own Robot”

Op 1 mei was ik te gast in de uitzending BNR Digitaal van Herbert Blankensteijn. De uitzending is hier terug te luisteren:

https://www.bnr.nl/podcast/digitaal/10376736/dns-over-https-en-augmented-reality

M’n toelichting op “Be Your Own Robot” is het 2e item na ongeveer 15 min. Er was tegen de verwachting in nog een raakvlak met het eerste onderwerp (DNS over HTTPS). Beide onderwerpen gingen over de vraag of we moeten accepteren dat Big Tech ons in de gaten houdt. Nu nog o.b.v ons browse-gedrag. Binnenkort o.b.v een analyse van wat we zien en doen? (Zodra een AR bril met ons meekijkt en ons nauwlettend volgt om ons zo goed mogelijk van dienst te zijn)

Wat als Apple in 2020 een AR bril lanceert?

EEN SPECULATIEVE BLIK IN ONZE AR TOEKOMST

De geruchten blijken waar. Het is 2020 en Apple brengt ook een augmented reality bril op de markt. Publiek reageert er anders op dan destijds met Google Glass. Voor die bril was bij de lancering nog nauwelijks zinvolle software. Je kon foto’s met het apparaat maken. Maar dat was juist wat men het Google niet toevertrouwde. Apple heeft het slimmer aangepakt. Er is bij de lancering een variant van de AR bril zonder camera, zodat de ophef over de privacy aspecten achterwege kan blijven. Of je wel of niet door een Apple bril de wereld in wil kijken, is aan jou. De buitenwereld hoeft zich daar niet mee te bemoeien. Wat Apple voorafgaand aan de introductie van de bril ook slimmer heeft aangepakt is het verzorgen van een ecosysteem aan AR software. Sinds de lancering van de bril moeten nieuwe ARkit apps die in de app store van Apple willen komen verplicht compatibel zijn met de Apple AR bril.

De stap van smartphone AR naar hands-free augmented reality heeft het aantal toepassingsmogelijkheden van AR verder doen toenemen. Steeds vaker zijn er taken waarvoor even de AR bril wordt op gezet, het gebruiksgemak wint het van de bezwaren als het om kortstondige handelingen gaat. Een enkeling houdt zelfs z’n AR bril gedurende de gehele dag op, nu de brillen lichtgewicht zijn geworden, de batterij lang mee gaat en de vormgeving stijlvol is. Het argument “te duur” gaat niet meer op, sinds de brillen in 2022 door de tech-bedrijven gratis in omloop werden gebracht in een fikse concurrentiestrijd die draaide om de ‘eyeballs’ van de gehele wereldpopulatie.

Het belang voor de tech-industrie is duidelijk. Een bril die de hele dag wordt gedragen leert buitengewoon veel over de het dagelijks functioneren van de drager. Dankzij Machine Learning en de ongekende hoeveelheid beschikbare data over ons komt de bril meestal met de juiste suggesties en inzichten. De hardware en software conglomeraten doen hun uiterste best concurrenten te weren van hun bril, en alle data zelf te aggregeren en aan te wenden. Gebruikers merken dat ze steeds verder worden opgezogen in de bubble van hun fabrikant. De AR bril gaat zich steeds pro-actiever met ons leven bemoeien, levert steeds betere suggesties en aansturing, wordt vaker opgezet en gaat daardoor de gebruiker nog beter kennen.

Het merk van de bril en de beschikbare software bepaalt anno 2024 hoe aangenaam je je leven kunt maken. We raken gewend aan het gemak, de efficientie en de perfectie van taken die we uitvoeren onder begeleiding van de bril. In een app store voor ‘behaviours’ is een groot aantal scripts te vinden waarmee je je jezelf kunt verrijken. Hulp bij basis taken is meestal gratis, maar voor premium bezigheden betaal je sinds 2025 een kleine maandelijkse fee. Er is een transactiemechanisme waarmee je afrekent voor elke handeling waarbij AR je te hulp schiet. AR heeft eindelijk z’n businessmodel gevonden.

Steeds meer augmented interfaces duiken op in de wereld om ons heen, beschikbaar voor mensen met een AR bril. Bediening, meldingen en de interactie wordt op de ontvanger afgestemd. Sommige apparaten zijn inmiddels AR only, net als de bewegwijzering op sommige plekken. Dat was mogelijk omdat er sinds 2026 sprake is van een globaal erkende gezamenlijke augmented basis werkelijkheid. Alhoewel, eigenlijk zijn het er twee. Er zijn nog twee concurrerende “AR clouds” over. Je semi-virtuele bestaan speelt zich in één van deze werelden af.

Nu de bril op onze neus in bijna elke situatie een bepalende rol speelt, zijn de regels voor de app stores waar we ‘behaviours’ kunnen shoppen uiterst strikt geworden. Enkel gecertificeerde scripts die aan een lange reeks regels voldoen en die de gemiddelde mens écht een stap vooruit brengen, worden toegelaten. Er is onvrede over dat toelatingsbeleid want door een gebrek aan apps die afwijken van de norm, wordt ons leven wel efficiënter maar minder verrassend en prikkelend. Er ontstaat een steeds groter aanbod aan ongeautoriseerde scripts, voor bijvoorbeeld onbeperkte gezichtsherkenning via een Chinese cloud. De sociale impact daarvan is niet met techniek of regels te beteugelen. Er is behoefte aan een etiquette die bepaalt wat de omgangsvormen zijn als twee mensen met AR brillen elkaar treffen. Wat ziet de een en wat ziet de ander? Ben je open over wat je aan extra informatie te zien krijgt over de andere persoon? Welke info deel je met elkaar? En accepteer je de de instellingen van de andere persoon die gaan over de wijze waarop hij of zij zich in de AR wereld wil manifesteren op dat specifieke moment in die specifieke context? Of kies je zelf wie of wat je voor je ziet zitten?

Alles is een kwestie van instellen. Apps op de bril kunnen zich positief onderscheiden door de hoeveelheid instel-opties waarmee een gebruiker invloed heeft op de invloed die de bril op zijn of haar leven heeft. De keerzijde is dat mensen klagen over de hoeveelheid tijd die ze kwijt zijn aan het managen van alle software, scripts en de benodigde upgrades en security updates die op tijd doorgevoerd moeten worden. De noodzaak daartoe werd duidelijk toen in 2028 een computer virus voor AR brillen wereldwijd het dagelijkse leven ontregelde.

Gelukkig ontstaan er gauw allerlei nieuwe services die ons de taak van het updaten van software uit handen namen. Maar ook komen er diensten voor mensen die er tegenop zien om hun leven als ICT project te managen. Hulp bij het instellen van onze voorkeuren in de software die ons leven bepaalt. In plaats van talloze apps die ons allemaal soortgelijke instel-opties vragen in te stellen, krijgen apps te maken met onze persoonlijke API die de configuratie afhandelt. Nee, deze gebruiker wil ‘s middags niets. Tenzij behalve als indien maar niet als uitgezonderd of wanneer toch soms wel.

Ook gaat ons contact met de wereld om ons heen steeds vaker in auto-pilot mode verlopen. Onze API reageert op binnenkomende verzoeken, reageert, en laat het ons weten indien er voor ons een taak uit rolt. Omdat een steeds groter deel van onze wereld virtueel bestaat en via programmacode aangestuurd kan worden, hoeven wij steeds minder vaak fysiek in actie te komen. Een extra voordeel is dat als iets in 2030 niet naar onze zin verloopt, we kunnen ingrijpen met een ‘undo’ functie. Een taak die je voor een groot deel in augmented reality hebt uitgevoerd kan ongedaan worden gemaakt indien ook de omgeving grotendeels in AR betrokken was bij de handeling.

Leven in meerdere parallele universa, dat is pas échte AR. Of gaat dat misschien een stap te ver? Moeten we in 2030 een heel decennium terugdraaien? Nee, beter om vanaf 2020 te zorgen dat we scherp in control blijven en kunnen zorgen dat de wereld over 10 jaar is zoals wij dat zelf voor ogen hebben.

“IF this THEN I” workshops

Jezelf aansturen met een zelf aangemaakt algoritme, dat kan met de “IF this THEN I” app. Tijdens het STRP festival verzorgde ik er een aantal workshops mee. De groepen die langs kwamen waren zeer divers. Van basisschool klas 7b tot aan een groep met game design studenten. Heel leuk en verrassend om te zien hoe verschillend de groepen omgingen met het opvolgen van regels en de mogelijkheid om zelf de regels te bepalen. M’n eigen nieuwsgierigheid daar naar was een van de aanleidingen om het project te ontwikkelen. Een nieuwsgierigheid naar de vraag of het mogelijk is, en wat het oplevert, als we ons eigen leven en ons eigen handelen in ALS/DAN programmeerregels zouden specificeren. Leesbare regels, zodat de reden waarom je iets doet wél te achterhalen is.

Daarmee positioneer ik het project als tegenhanger van ontwikkelingen die we momenteel om ons heen zien. Artificial Intelligence systemen die bepalen wat we doen o.b.v onnavolgbare programmacode. Is #ifthistheni een bruikbaar alternatief? Helaas niet, zo blijkt. Een van de opdrachten maakte dat heel duidelijk. Van de vele groepen die een poging waagden lukte het slechts in 1 geval om gezamelijk de juiste regels op te stellen om achtereenvolgens iemand een mandarijn te laten pakken, aan iemand te geven om het pellen te doen en vervolgens iemand de mandarijn te laten opeten. Als jezelf eigenhandig programmeren dus geen optie is, ziet er dus naar uit dat we in de toekomst toch zijn aangewezen op een mix van verschillende soorten algoritmes die gaan bepalen we doen. Soms kunnen we en willen we zelf de regels ter hand nemen, maar vaker zullen we ons moeten neerleggen bij efficiënte zelflerende algoritmes. Of we kunnen besluiten iets helemaal zelf te doen, zonder inmenging van techniek. Dan laten we onze handige AR bril gewoon een dagje thuis. Net zoals we tegenwoordig wel eens bewust een dagje zonder mobiel op pad gaan?

Een sfeerimpressie van de workshops, en een aanduiding van wat er gebeurt:

“ALS niemand lacht DAN ga ik op m’n kruk staan”

“ALS niemand mij achtervolgt DAN ga ik onder de tafel zitten”

en

“ALS iemand onder de tafel zit DAN ga ik ook onder de tafel zitten”

De regels en taken worden gedurende de 5 minuten in vier stappen steeds iets uitdagender en dynamischer. Op je telefoon staren, omhoog wijzen of iemand aankijken, die regels vormen een makkelijke instap. Daarna neemt het aantal mogelijke regels en acties toe met opties zoals op een kruk staan, iemand achtervolgen, onder de tafel zitten of om hulp roepen. Tenslotte volgen de opdrachten ‘niets doen’, de groep verlaten of de telefoon in de zak doen. Klaar. Einde van de sessie met de reeds opgestelde regels. Waarna nog een sessie volgt met eigen regels. Die soms super energiek en leuk is, en soms ontzettend tam en saai.

Hilariteit en trots als eerst één deelnemer maar daarna meer dan de helft van de groep ontdekt dat ze o.b.v eigen regels de groep kunnen verlaten. En dan hebben ze het écht begrepen. Zelf je eigen systeem maken hoeft niet, als je maar wel de controle krijgt (en die benut) om de regels te bepalen die bepalen wat je doet.

STRP festival 2019 – scholierenprogramma

Algoritmes en Artificial Intelligence bepalen in toenemende mate ons doen en laten, zonder dat wij weten waarop bepaalde keuzes gebaseerd worden. Is dat acceptabel, of moet daar verandering in komen? En wat zijn de opties? Het “IF this THEN I” systeem biedt hands-on inzicht in de thematiek. Met een interactieve online web-app, die beschikbaar is voor workshops en presentaties, ervaren deelnemers tezamen in een sessie hoe het voelt om aangestuurd worden door hun eigen algoritme waarvan zij de regels wél zelf in kunnen stellen. De interactieve sessie vormt een aanknopingspunt voor de verkenning van de vraag hoe we ons als mensheid kunnen voorbereiden op onze techniek-georienteerde toekomst.

Expositie: “Be Your Own Robot”

Een solo-expositie met recent en nieuw werk rondom het thema “Be Your Own Robot”

11/04/2019 – 30/06/2019 / Tetem Enschede

Al jaren is Sander Veenhof gefascineerd door het fenomeen Augmented Reality. Door te programmeren van alles kunnen maken en daar de fysieke werkelijkheid mee beïnvloeden, dat levert hem vrijheid en oneindig veel mogelijkheden op. Sinds mensen massaal in beweging kwamen toen er virtuele verschijningen op elke straathoek opdoken, werd het iedereen duidelijk dat AR echt impact kan hebben op de wereld om ons heen. Maar AR staat op het punt om nog ingrijpender ons doen en laten te gaan bepalen. Als “AR brillen” comfortabel genoeg zijn geworden zullen we verleid worden om die vaker te dragen. We zullen dan doorlopend geïnformeerd worden waar we heen moeten, wat we moeten doen en hoe we dat moeten doen.

Patent UA2329384-1

There’s a patent on that behaviour

De tentoonstelling “Be Your Own Robot” gaat in op een vraag die zich dan aandient: gaan we in de toekomt als robot door het leven, of is er nog een mogelijkheid om jezelf te zijn? Als software bepaalt wie je bent en wat je doet, hoe ziet zelf-expressie er dan uit? Ooit zal je uit een virtuele garderobe een outfit uitkiezen als je de straat op gaat. Maar jezelf vormgeven gaat in de toekomst over meer dan het visuele. Laat je ‘de cloud’ beslissen wat je doet en waarom? Of ontwerp je met “IF_this_THEN_I” je eigen algoritme waarmee je wordt aangestuurd? En wat als je daarin verhinderd wordt omdat Big Tech je slimme script al heeft gepatenteerd? Het zijn vragen die nog erg abstract klinken omdat we ons nog niet goed kunnen verplaatsen in onze toekomstige zelf. Om daar meer inzicht in te krijgen is de Futurotheek in het leven geroepen. Een fictieve app store waarin apps zijn te vinden waarmee we ons eigen functioneren in de toekomst zullen kunnen upgraden.

De tentoonstelling biedt bezoekers een hands-on inkijkje in wat komen gaat. Met meer zicht op de ingrijpende ontwikkelingen die ons te wachten staan, ontstaat meer vat op de uitdagingen én oplossingen die daarbij van toepassing zijn. De tentoonstelling past daarom in het thema “Driving Technology”. Als maatschappij maar zeker ook als individu is het van belang te weten hoe we een rol kunnen spelen bij het zorgen dat de maatschappelijk relevante ontwikkelingen op het gebied van techniek zich voltrekken op een manier die we wenselijk vinden.

Be Your Own Robot

TEDx How to be your own robot?

When I was a child I enjoyed programming my commodore 64. I felt powerful, being able to create anything and letting the machine do what I wanted by just summarizing an idea into clearly defined instructions and rules. If this, then that. Some people think of programming as something obscure or complicated, but it’s as simple as: if it rains, I take an umbrella with me. When a gameplayer presses the left key, the character on the screen moves left. The basic principles are still the same, but the way computer creations manifest themselves has changed. And their impact too.

If we look at the developments of the computer industry, we actually see the changing role and position of computers in our society. With the capacity and power of computers growing, and their size and price shrinking, we can see a growth of the amount of tasks for which they could provide help and assist us. They started having an opinion about the world when they got connected to the internet. And with the mobile revolution, and the upcoming augmented reality revolution, a computerized vision on the world will be fully merged onto day to day reality.

But obviously we’re worried about this. We collectively complain about side-effects of being so utterly connected to the whole world, but no longer having an eye for our surroundings and people in our vicinity. And there’s discussion about the influence of social media companies. Their scripts define what we see and encounter. Mixing ads and fake news content into the flow of content we absorb each day. Currently, this only applies to what we see on our computers and mobiles. But once the age of wearables takes off, transparent screens in front of our eyes will have a continuous impact on what we see, but the impact will extent to include much more of our behaviour and what we do.

Our complaints have been heard. Facebook for example has announced to change their algorithms to let us see more of the activities of our friends and family. But why should one company decide and define this focus for all of the worlds population? Their algorithm is a black box. The only adjustment we can make is to switch on or off groups of people and their content. When switching everything off, an empty feed is the result.

There’s a growing community of people that are worried about the power of facebook which is based on all the data it feeds to us and grabs from us. Their algorithms study what we see, like and do. There are suggestions to urge these companies to let users own their own data, but that’s only halfway a solution. We want to own our data, but we also want to know which insights are gathered and which meta data is collected, and how that influences what we see on our feed.

So the split up of these social media companies needs to include their algorithms too. Just like IBM was split into a software and hardware part, and Microsoft was forced to decouple their Internet Explorer browser. As users of social media, we want transparency. We want to be able to decide which algorithm runs our feed. Some people will want ease of use. Some will want a fully customizable mechanism. If it rains, I take an umbrella. If it rains, I take an umbrella, except when it storms and I only need to walk a little distance, but not when .. etcetera.

In the case of a news feed, we can always quit a system if we don’t agree with lacking the freedom to choose the algorithm. But the discussion about deciding which algorithm runs your feed is going to be more fundamental once the social media companies are responsible for guiding us throughout our day to day life with instructive content about when and when we need to be. The mobile phone is already our personal assistant. But the assistant is becoming more than just an assistant. It’s going to be our coach, doctor and trainer, accessing stored data and live data gathered from sensors and our wearables. Instead of just matching dates and guiding us towards our appointments and bussiness meetings, it will keep guiding us throughout activities.

Currently, the devices are not having the right shape yet. Most of them aren’t inobtrusive and subtle yet, but progress is made rapidly.

Looking at the scheme of things and the flow of data, it’s clear that a black box should not be at the centre of everything, especially when the processing in the black box is increasingly based on artificial intelligence and untraceable neural networks. Instead of a black box at the centre, we should be at the centre. But for that to happen we need a new design for humans, once we really enter the cyborg era. We need an API, and application programming interface. A plug-in structure, so developers or fellow users can create scripts or services and we will be free to decide which specific components make up our day-to-day routine. We can shop around to include components by other companies, governments or open source communities. Or we can write our scripts and logic. And we’d better start doing that now, because when looking into the future by studying the patents that are already being filed today, we can see how the tech industry is getting ready to deploy us as robots. Being to big to beat, it’s going to be unavoidable that it’s going to be a battle between the big 5. Will the only freedom of choice be to choose a flavor? Will you end up in an google reality, an apple universe or will Amazon augment your reality?

Assisted by devices, it’s going to be a fantastic D I Y reality, we’re told. But are you really doing things by yourself, if you’re following the strict guidance of a device that controls you? Is it going to be a challenge to be your own robot? It will be, if we don’t change things radically right now. And that will be the real challenge.

For some people, it will be enough to at least know which scripts are running your life. For others, it will require a bit of programming. But that doesn’t mean it’s going to be complicated. It will be a matter of translating your preferences, your interests, your taste and your default behaviour into rules. Rules that will apply to you. We’ve already slowly grown accustomed to the influence of software and devices on our life, and we react based on what they tell us. So nothing is new. A device will tell us what we do, what to say and what to feel, but at least we know why this is the case.

Initially, these scripts will be basic. Definitely not comparable to the finetuned control the big companies will be able to give us, based on their years and years of monitoring us. But if we start building and shaping and creating our own behavioural scripts now and perhaps even sharing our some of our routines in an open source community, we can collaboratively create a hive mind that’s really us. Operating free of commercial purposes or stock holder interest. Start programming yourself today and escape the inevitable future! Be your own robot!

Augmented Reality Art: From an Emerging Technology to a Novel Creative Medium

I have contributed a chapter to this book with the following title:

“Living and Acting in Augmented Words: How to Be Your Own Robot?”

ABSTRACT:

The AR user experience is currently shifting from passive viewing to active engagement. Augmented reality wearables are going to be as common as smartphones are today. In a 24/7 augmented reality world, we risk becoming empowered and controlled by efficiency-focused algorithms. How to be your own robot is going to be the main challenge. In the near future, there is not just an opportunity for art to manifest itself in new ways, but there is also an urgency for that to happen. This chapter describes this shift with references to some of author’s own projects to illustrate the various ways in which AR art can manifest itself.

Peek inside the book with a search for “Be Your Own Robot”:

https://books.google.nl/books?id=eMJNDwAAQBAJ&pg=PR15″

Order info:

From an Emerging Technology to a Novel Creative Medium
Series: Springer Series on Cultural Computing
Geroimenko, Vladimir (Ed.)
ISBN 978-3-319-06202-0