This year many of us were forced to work at home. We’re using zoom a lot. It has benefits. A zoom session is efficient, but that’s also one of the disadvantages. In a group chat we’re missing the possibility to occasionally say or whisper something to our neighbour. Yes, you can request to be placed into a seperate break-out room, but that would put a lot of weight on a simple question like: how was your holiday? We’re missing the moments around our coffee machines at the office. Students are missing their libraries where they’re studying, motivated by the presence of other students, even without talking with them. Can Zoom offer such a similar experience? What if you can’t concentrate on your study material when a camera is pointed at you? There’s a solution. This MeetingPoint zoom-filter lets you be present – and feel the presence of others, without being in the picture yourself. Why such a basic avatar? Well, if you’re really using this filter to study and to have others keep an eye on your concentration, you don’t want to spend hours on configuring and styling your virtual representation. It’s for that reason that this filter has so little functionality, but thereby it hopes to be really functional.
16 sep 2020
Cross Reality @ _V2 Rotterdam
An evening on Art & Augmented Reality, part of ‘A Crash Course in Art & Media Technology’, a series of four events examining the intersection of art, technology, science and society.
sep 2020
NFF Conferentie: Life As We Know It
Panel: Futurotheek
PAST:
apr 2020
Urban Stories – Pakhuis de Zwijger
During a live-cast on May 26th I’ll talk about my PONG “>augmented reality filters to be used during Zoom/Skype videoconferencing.
apr 2019
Artist Talk / Tetem Enschede
Mei 2019
Gogbot cafe: Big Data is watching you
Tetem / Enschede
Okt 2019
Novi Sad, Serbia
Okt 2019
IMPAKT / Cirque du Data
mrt 2019
11e Nationaal Mediawijsheid Congres
Bouw en ervaar je eigen algoritme — “IF_this_THEN_I”
15:30-16:30 & 16:30-17:30
mrt 2019
Panel: Controlling Datapolis (Sat 23.02 11:30)
Power Structures in Augmented Realities and Digital Urban Landscapes
feb 2019
Panel: Controlling Datapolis (Sat 23.02 11:30)
Power Structures in Augmented Realities and Digital Urban Landscapes
jan 2019
Is augmented reality toepasbaar voor Rijkswaterstaat?
Sept 2018
Zaandam Valley 2018
De augmented consument
March 2018
Facebook split-up?
Let’s fix some things to get ready for the age of the AR wearable
Jan 2018
Augmented Reality art
Book chapter: “Living and Acting in Augmented Words”
12 okt 2017
26 okt 2016 Dutch Design Week
10 nov
June 2016
Northside Festival, Brooklyn NY
Mobile City Dialogues
24 may 2016
Internet of Things, sensoring technology and augmented reality
2015
Interview
Apr 2016
Internet of things & augmented reality
6 apr 2016 Utrecht
Internet of Things, sensoring technology and augmented reality
29 march 2016 Eindhoven
“experience how gamification turns unexpected data into a source of inspiration”
3 feb 2016
Virtual Reality in het Onderwijs
2 feb 2016
Pencil vs Pixel presentation
26 jan 2016 Bruxelles
out of the box talk
19 nov 2015
Rolinco “Leer van het verleden, investeer in de toekomst” event
Vrijetijdsbesteding over 50 jaar
11 nov 2015
Join the Smart Citizens Revolution
15 okt 2015
Virtual realities in the city
18 mei 2015
“Contextual technology will solve the augmented reality vs virtual reality debate”
9 juni 2015
“De virtuele wereld breekt door”
18 mei 2015
De stad als virtueel podium (17:15)
12 mei 2015
Bosch Architectuur Initiatief / SHINE festival
21 Apr 2015
Appril / BNO event
Mrt 2015
Appril apps & art event
Sept 2014
Een blik op privacy met Google Glass
Groninger Forum
10/11 oct 2013
“If not, then yes”
Oct 8th 2013
Lancering van het kunstenaars spekers bureau “Artist Talks”
27 sept 2013
Smart City symposium
7 sept 2013
“Smart Viewers, Dumb Screens” – From Smart TV to Zero TV household
IBC session participant
4 sept 2013
Radio interview [DUTCH] “Zo niet, dan toch” festival
BNR Digitaal
8 sept 2013
Philips Observatorium Eindhoven 75 jaar
2013
Firestarters Forum Amsterdam
April 2013
Remote Encounters conference
March 25th
Crosslab – Willem de Kooning Academy
March 2013
Vodafone Firestarters on AR and 3D printing
Feb 2013
Augmented Reality & Biosensing
Hackybirthday – FACT Liverpool
March 2013
In cooperation with DOTS Magazine
27-2-2013
Interactive augmented reality
Jan 2013
Creativity Forum – Saudi Arabia
“No need to enter the virtual world, it has entered ours”
20-12-12
Augmented reality introduction/presentation during PIPS:lab Potator launch
27 nov 2012
Augmented reality, een nieuwe publieke ruimte
[DUTCH] Korte presentatie na boekpresentatie “Beeldenstrijd in Crisistijd”
15 nov 2012
The future, or the end of augmented reality
Studium Generale – KABK The Hague
Oct 20th 2012
What doors are opened by augmented reality?
oct 2012
Augmented reality live-demo
Sat 22nd September 2012
“Touchscreens for plants and augmented life”
Sept 25th 2012
Talk on augmented reality projects
10 Sept 2012
Second screen talk @ IBC conference
“Who’s the second screen now?” session
June 2012
Augmented Reality Summit – London
Presentation on Slideshare: “Engaging AR Experiences”
May 17th 2012
“Augment it!” – Stedelijk Museum @ Trouw gebouw
Curating an augmented reality exhibition in Trouw Amsterdam
Feb 2012
Clique e Ligue – Realidade Aumentada (Brasilian TV)
Talking about the NIMk/ArteMov artist-in-residency in Sao Paulo
Feb 2012
Organised by Submarine and the Master of Film Programme of the NFTA
Jan 2012
PSV = Philips Sportvereniging Veldhoven [Dutch]
nieuwjaarsreceptie gemeente Veldhoven
Oct 2011
Bruce Sterling & Sander veenhof
Sep 2011
“API for art”, art2.0 and the launch of a global artwork mash-up
Sep 2011
Hangar.org Barcelona
Sep 2011
“Investigating the Notion of the Art 2.0” by Kasia Molga and Sander Veenhof,
June 15th 2011
“Open Your Mind” @ Timelab & Vooruit : New Concepts and Ideas
May 17/18th 2011
are2011 Augmented Reality Event, Santa Clara
Presentation about AR projects
May 20th 2011
Workshop and symposium – Maarten Lens-FitzGerald, Bruce Sterling, Scott Fisher, Sander Veenhof
April 26-28 2011
Y.2 event – 48 hours Layar workshop
non-stop 48 hour augmented reality workshop
April 15th 2011
Lost & Found – a night of stray images and sounds
Presenting about the project realized during an exchange project with Art Bakery, Cameroon, Afrika
31 maart 2011, 19.30u
do it! move it! Temporary Stedelijk Museum Amsterdam
Avond over mobiele technologie en kunst
Februari 2011
Social Media Congress – Amsterdam
Talking about the radical new opportunies augmented reality offers to artists
feb 2011
Presentation of “Live Game of Life” at SDLX – Tokyo
2:00pm to 4:00pm Feb 4th – Keio-NUS CUTE Center, Hiyoshi Campus
jan 2011
Labtalk #35 – “An artist’s impression of AR technology”
Crossmedialab Hogeschool Utrecht
11 nov 2010
CHArt conference London – “Art 2.0”
Presenting “Investigating the notion of the Art 2.0” –
Kasia Molga and Sander Veenhof
Session 4 – dissemination – 15.30
6 nov 2010
Ignite Amsterdam #2 – MuseumN8 Mediamatic
20 x 15 sec presentation about augmented reality art invasion into the MoMA NYC
okt 2010
Presenting AR projects
jun 2010
Pakhuis de Zwijger – Design the Change
Presenting NBEEP6 concept in the context of ‘Design for the other 90%’
may 2010
SETUP Utrecht – De kunstenaar als Homo Digitalis?
Nieuwe Grond kunstenaars komen bij SETUP digitaal ge�xplodeerde kunst onderzoeken
Te gast: GEERT LOVINK/ SANDER VEENHOF/ JONNET MIDDLETON (o.m)
november 2009
Artist-in-residence stay at Art Bakery in Cameroon, Afrika
Invited by HMK (HotelMariaKapel)
in Hoorn as part of an exchange program with Art Bakery.
15 oktober 2009
Presentation @ Pecha Kucha #11 Amsterdam
21:00h / Mediamatic / Vijzelstraat 68
september 2009
OBA Live radio – De kwestie: For security reasons
In de tentoonstelling “For Security Reasons” geven kunstenaars een kritische kijk op de laatste veiligheidsontwikkelingen. Te gast tijdens OBA Live op donderdagavond 3 september zijn de curator van Showroom MAMA Tim Braakman en kunstenaars Sander Veenhof en Harmen de Hoop.
Openbare Bibliotheek Amsterdam – 4th floor / 747 AM (Radio 5)
august 2009
ISEA 2009 – “Dimensional Mobility”
Talk on the experiments at the border of the virtual and real
Entertainment and Mobility sessions, Friday, 28 August 2009, Waterfront Hall
Jul 09, 2009 – 20:00 to 23:00
Presenting “Publicity Plant” project at Test_Lab: What Crisis?! V2 Rotterdam
Featuring: David Hahlbrock (DE) Academy of Media Arts Cologne, Cesar Harada (FR), Dot Mancando (TH), Thomas Thwaites (UK) Royal College of Art,
Sander Veenhof (NL) Gerrit Rietveld Academy.
Opening: Mieke Gerritzen, Respondent: Koert van Mensvoort.
http://www.v2.nl/events/test_lab-what-crisis
Public event 2: WWW, Art and Reality
Date: Sunday 11 January 2009
Time: 16:00 – 19:00 hrs
Location: FlatStation, Florijn 42, Amsterdam-Bijlmer
Mostly It Happens At Night focuses on how artists deal with the internet for developing and presenting
their work in this virtual public space.
Invited guests are: Anne Helmond (www.annehelmond.nl/), professional blogger and new media researcher;
Sander Veenhof (sndrv.nl),
an artist who works a lot in virtual space; Lucas Evers (waag.org), Lucas will moderate the event and will give a small introduction about art in virtual space, linked to physical space.
Interview: what to expect from AR in the near future?
In recent months I received a few questionnaires asking me to reflect on the future of AR. The replies I gave are in this blog-post.
What excites you the most about augmented reality?
Thanks to augmented reality our world has turned into a programmable universe. That means a lot of new opportunities because any imaginable thing can now be realized, for real, just by programming. All that’s needed is technical skills and time, no need to invest in physical material. And that means it’s possible to work at an unparalleled large scale. The AR domain is without limits.
What do you recommend for people who want to get into the AR field?
People starting with AR development might experience a gap between the fabulous possibilities being depicted in conceptual (fake) AfterEffects movies and the tough reality of creating successful AR experiences in reality. AR is not an easy medium. It’s not just a matter of getting the technology right, it’s the tight relation to the physical reality that’s difficult.
Although the basic AR infrastructure is improving, such as better spatial tracking and object recognition services, there are a lot of other factors influencing the user-experience. The physical situation and the user are two highly unstable factors. A dynamically changing environment requires a very thorough, flexible and smart understanding of the space. But people standing on the wrong spot, pointing into the wrong direction or doing the wrong things, will lead to a failed AR experience too. Designing interactions on a screen is easy, it’s easy to detect slides and clicks. But working with interactions in the real world (without standing next to the person to assist) are a challenge of a different kind.
First-time AR creators should be ready to experience some setbacks. But don’t give up and turn to VR, just because you’re in full control there. Go for the challenge to make it happen in AR!
What are your predictions for the AR industry and technology in the next 2, 10, and 25 years?
2 years
In the next few years we’ll get a better understanding of the type of AR wearables on the market, and which one to wear in which situation and for which purpose. The heavy duty glasses equipped with 3D tracking sensors will be useful when we need virtual items positioned at specific spots in our physical surroundings. But lightweight AR glasses will be sufficient for most occasions. They’ll show notifications originating from the cloud, or they react when something is being detected in the camera feed. Sometimes this leads to an instant reaction, but the parsing of everything that’s in your vicinity is happening for another reason too. The “lost keys app” for example uses the data gathered from the ongoing analysis of everything that is within your field of view. But that information gathered throughout the day is also used to train our personalized AI cloud.
10 years
At first some people will be wearing their AR glasses once in a while. But they’ll experience that the usefulness of their device will increase rapidly the more they use it. AR wearables will learn a lot about their users by analyzing their environment and their behavior. As a result, the recommendations will become better, more relevant and more valuable. And that will be an incentive to wear the the device more often, so an acceleration of this process will occur, ending in a situation in which we’ll wear our glasses most of the time.
25 years
In 25 years from now the last hardware hurdles will be solved. People who objected against wearing AR glasses will eventually be equipped with build-in displays in their retina. Living in an augmented reality is going to be default for those that can afford it. The type of software and the clouds you’re in will define your quality of life. There will be a micropayment mechanism for the moments when AR will intervene in your life. And hopefully there will also be a public domain zone, where both creators and users can use AR with all of its powerful features without the constraints imposed by the commercial Big Tech companies. Their role of patent fighting entities and gatekeepers of our augmented world is one to be wary of.
What do you think will be the positive and negative consequences of living in an augmented reality future?
Augmented Reality will mean the whole world will get an update, with interfaces popping up whenever there seems to be a need for one. Actually, it’s us humans that will get an upgrade, empowering us with an additional intelligence that is pro-actively guiding is and advising us what needs to be done and what not. It will radically change the relation between us and the world around us.
But with all that technology in our life, it will be a challenge to be your own robot. We will be controlled by messages, notifications and instructions showing up in our Heads Up Displays, but will we still be in control of what’s controlling us? A negative consequence of living in a customizable AR future is that it’s a lot of work to configure yourself. And that means there is a risk that for some people it will be too much ICT, causing them to switch to auto-pilot mode and accepting all default suggestions and instructions. AR will play a major role in the increase of the influence of AI on our everyday life. And although we might experience a perfect life in the future, that’s only valid from an efficiency perspective judged by an algorithm of which we don’t oversee the core values or working.
How to make sure that our future AR world will be valuable to us humans, instead of the other way around?
The commercial potential of AR is huge. For Big Tech it’s going to be very attractive to take control of the ‘eyeballs’ of the whole world population. But it would be a sad outcome if such a marvellous medium would become the domain of bussiness only. Therefore it’s important that we keep an eye open for AR apps and experiences that might not have a proper bussinessmodel, that therefore might not be as shiny as the high investment apps. But to keep the AR universe an open playground for everyone, it’s important that we stimulate a variety of creators by being an audience for them too. Besides a lot of functional purposes and meaningful use-cases, there is are a lot of opportunities with AR in the worlds of the arts too.
Augmented reality screensaver
Vroeger werden screensavers beperkt door de kaders van het scherm. In augmented reality ontbreekt die begrenzing. De AR screensaver (voor als er ergens geen AR is, en dat is best vaak het geval nog) beweegt zich vrijelijk door de 3D ruimte. Rotterdam Centraal vormt trouwens een zeer passend decor!
BNR Digitaal over “Be Your Own Robot”
Op 1 mei was ik te gast in de uitzending BNR Digitaal van Herbert Blankensteijn. De uitzending is hier terug te luisteren:
https://www.bnr.nl/podcast/digitaal/10376736/dns-over-https-en-augmented-reality
M’n toelichting op “Be Your Own Robot” is het 2e item na ongeveer 15 min. Er was tegen de verwachting in nog een raakvlak met het eerste onderwerp (DNS over HTTPS). Beide onderwerpen gingen over de vraag of we moeten accepteren dat Big Tech ons in de gaten houdt. Nu nog o.b.v ons browse-gedrag. Binnenkort o.b.v een analyse van wat we zien en doen? (Zodra een AR bril met ons meekijkt en ons nauwlettend volgt om ons zo goed mogelijk van dienst te zijn)
Wat als Apple in 2020 een AR bril lanceert?
EEN SPECULATIEVE BLIK IN ONZE AR TOEKOMST
De geruchten blijken waar. Het is 2020 en Apple brengt ook een augmented reality bril op de markt. Publiek reageert er anders op dan destijds met Google Glass. Voor die bril was bij de lancering nog nauwelijks zinvolle software. Je kon foto’s met het apparaat maken. Maar dat was juist wat men het Google niet toevertrouwde. Apple heeft het slimmer aangepakt. Er is bij de lancering een variant van de AR bril zonder camera, zodat de ophef over de privacy aspecten achterwege kan blijven. Of je wel of niet door een Apple bril de wereld in wil kijken, is aan jou. De buitenwereld hoeft zich daar niet mee te bemoeien. Wat Apple voorafgaand aan de introductie van de bril ook slimmer heeft aangepakt is het verzorgen van een ecosysteem aan AR software. Sinds de lancering van de bril moeten nieuwe ARkit apps die in de app store van Apple willen komen verplicht compatibel zijn met de Apple AR bril.
De stap van smartphone AR naar hands-free augmented reality heeft het aantal toepassingsmogelijkheden van AR verder doen toenemen. Steeds vaker zijn er taken waarvoor even de AR bril wordt op gezet, het gebruiksgemak wint het van de bezwaren als het om kortstondige handelingen gaat. Een enkeling houdt zelfs z’n AR bril gedurende de gehele dag op, nu de brillen lichtgewicht zijn geworden, de batterij lang mee gaat en de vormgeving stijlvol is. Het argument “te duur” gaat niet meer op, sinds de brillen in 2022 door de tech-bedrijven gratis in omloop werden gebracht in een fikse concurrentiestrijd die draaide om de ‘eyeballs’ van de gehele wereldpopulatie.
Het belang voor de tech-industrie is duidelijk. Een bril die de hele dag wordt gedragen leert buitengewoon veel over de het dagelijks functioneren van de drager. Dankzij Machine Learning en de ongekende hoeveelheid beschikbare data over ons komt de bril meestal met de juiste suggesties en inzichten. De hardware en software conglomeraten doen hun uiterste best concurrenten te weren van hun bril, en alle data zelf te aggregeren en aan te wenden. Gebruikers merken dat ze steeds verder worden opgezogen in de bubble van hun fabrikant. De AR bril gaat zich steeds pro-actiever met ons leven bemoeien, levert steeds betere suggesties en aansturing, wordt vaker opgezet en gaat daardoor de gebruiker nog beter kennen.
Het merk van de bril en de beschikbare software bepaalt anno 2024 hoe aangenaam je je leven kunt maken. We raken gewend aan het gemak, de efficientie en de perfectie van taken die we uitvoeren onder begeleiding van de bril. In een app store voor ‘behaviours’ is een groot aantal scripts te vinden waarmee je je jezelf kunt verrijken. Hulp bij basis taken is meestal gratis, maar voor premium bezigheden betaal je sinds 2025 een kleine maandelijkse fee. Er is een transactiemechanisme waarmee je afrekent voor elke handeling waarbij AR je te hulp schiet. AR heeft eindelijk z’n businessmodel gevonden.
Steeds meer augmented interfaces duiken op in de wereld om ons heen, beschikbaar voor mensen met een AR bril. Bediening, meldingen en de interactie wordt op de ontvanger afgestemd. Sommige apparaten zijn inmiddels AR only, net als de bewegwijzering op sommige plekken. Dat was mogelijk omdat er sinds 2026 sprake is van een globaal erkende gezamenlijke augmented basis werkelijkheid. Alhoewel, eigenlijk zijn het er twee. Er zijn nog twee concurrerende “AR clouds” over. Je semi-virtuele bestaan speelt zich in één van deze werelden af.
Nu de bril op onze neus in bijna elke situatie een bepalende rol speelt, zijn de regels voor de app stores waar we ‘behaviours’ kunnen shoppen uiterst strikt geworden. Enkel gecertificeerde scripts die aan een lange reeks regels voldoen en die de gemiddelde mens écht een stap vooruit brengen, worden toegelaten. Er is onvrede over dat toelatingsbeleid want door een gebrek aan apps die afwijken van de norm, wordt ons leven wel efficiënter maar minder verrassend en prikkelend. Er ontstaat een steeds groter aanbod aan ongeautoriseerde scripts, voor bijvoorbeeld onbeperkte gezichtsherkenning via een Chinese cloud. De sociale impact daarvan is niet met techniek of regels te beteugelen. Er is behoefte aan een etiquette die bepaalt wat de omgangsvormen zijn als twee mensen met AR brillen elkaar treffen. Wat ziet de een en wat ziet de ander? Ben je open over wat je aan extra informatie te zien krijgt over de andere persoon? Welke info deel je met elkaar? En accepteer je de de instellingen van de andere persoon die gaan over de wijze waarop hij of zij zich in de AR wereld wil manifesteren op dat specifieke moment in die specifieke context? Of kies je zelf wie of wat je voor je ziet zitten?
Alles is een kwestie van instellen. Apps op de bril kunnen zich positief onderscheiden door de hoeveelheid instel-opties waarmee een gebruiker invloed heeft op de invloed die de bril op zijn of haar leven heeft. De keerzijde is dat mensen klagen over de hoeveelheid tijd die ze kwijt zijn aan het managen van alle software, scripts en de benodigde upgrades en security updates die op tijd doorgevoerd moeten worden. De noodzaak daartoe werd duidelijk toen in 2028 een computer virus voor AR brillen wereldwijd het dagelijkse leven ontregelde.
Gelukkig ontstaan er gauw allerlei nieuwe services die ons de taak van het updaten van software uit handen namen. Maar ook komen er diensten voor mensen die er tegenop zien om hun leven als ICT project te managen. Hulp bij het instellen van onze voorkeuren in de software die ons leven bepaalt. In plaats van talloze apps die ons allemaal soortgelijke instel-opties vragen in te stellen, krijgen apps te maken met onze persoonlijke API die de configuratie afhandelt. Nee, deze gebruiker wil ‘s middags niets. Tenzij behalve als indien maar niet als uitgezonderd of wanneer toch soms wel.
Ook gaat ons contact met de wereld om ons heen steeds vaker in auto-pilot mode verlopen. Onze API reageert op binnenkomende verzoeken, reageert, en laat het ons weten indien er voor ons een taak uit rolt. Omdat een steeds groter deel van onze wereld virtueel bestaat en via programmacode aangestuurd kan worden, hoeven wij steeds minder vaak fysiek in actie te komen. Een extra voordeel is dat als iets in 2030 niet naar onze zin verloopt, we kunnen ingrijpen met een ‘undo’ functie. Een taak die je voor een groot deel in augmented reality hebt uitgevoerd kan ongedaan worden gemaakt indien ook de omgeving grotendeels in AR betrokken was bij de handeling.
Leven in meerdere parallele universa, dat is pas échte AR. Of gaat dat misschien een stap te ver? Moeten we in 2030 een heel decennium terugdraaien? Nee, beter om vanaf 2020 te zorgen dat we scherp in control blijven en kunnen zorgen dat de wereld over 10 jaar is zoals wij dat zelf voor ogen hebben.
“IF this THEN I” workshops
Jezelf aansturen met een zelf aangemaakt algoritme, dat kan met de “IF this THEN I” app. Tijdens het STRP festival verzorgde ik er een aantal workshops mee. De groepen die langs kwamen waren zeer divers. Van basisschool klas 7b tot aan een groep met game design studenten. Heel leuk en verrassend om te zien hoe verschillend de groepen omgingen met het opvolgen van regels en de mogelijkheid om zelf de regels te bepalen. M’n eigen nieuwsgierigheid daar naar was een van de aanleidingen om het project te ontwikkelen. Een nieuwsgierigheid naar de vraag of het mogelijk is, en wat het oplevert, als we ons eigen leven en ons eigen handelen in ALS/DAN programmeerregels zouden specificeren. Leesbare regels, zodat de reden waarom je iets doet wél te achterhalen is.
Daarmee positioneer ik het project als tegenhanger van ontwikkelingen die we momenteel om ons heen zien. Artificial Intelligence systemen die bepalen wat we doen o.b.v onnavolgbare programmacode. Is #ifthistheni een bruikbaar alternatief? Helaas niet, zo blijkt. Een van de opdrachten maakte dat heel duidelijk. Van de vele groepen die een poging waagden lukte het slechts in 1 geval om gezamelijk de juiste regels op te stellen om achtereenvolgens iemand een mandarijn te laten pakken, aan iemand te geven om het pellen te doen en vervolgens iemand de mandarijn te laten opeten. Als jezelf eigenhandig programmeren dus geen optie is, ziet er dus naar uit dat we in de toekomst toch zijn aangewezen op een mix van verschillende soorten algoritmes die gaan bepalen we doen. Soms kunnen we en willen we zelf de regels ter hand nemen, maar vaker zullen we ons moeten neerleggen bij efficiënte zelflerende algoritmes. Of we kunnen besluiten iets helemaal zelf te doen, zonder inmenging van techniek. Dan laten we onze handige AR bril gewoon een dagje thuis. Net zoals we tegenwoordig wel eens bewust een dagje zonder mobiel op pad gaan?
Een sfeerimpressie van de workshops, en een aanduiding van wat er gebeurt:
“ALS niemand lacht DAN ga ik op m’n kruk staan”
“ALS niemand mij achtervolgt DAN ga ik onder de tafel zitten”
en
“ALS iemand onder de tafel zit DAN ga ik ook onder de tafel zitten”
De regels en taken worden gedurende de 5 minuten in vier stappen steeds iets uitdagender en dynamischer. Op je telefoon staren, omhoog wijzen of iemand aankijken, die regels vormen een makkelijke instap. Daarna neemt het aantal mogelijke regels en acties toe met opties zoals op een kruk staan, iemand achtervolgen, onder de tafel zitten of om hulp roepen. Tenslotte volgen de opdrachten ‘niets doen’, de groep verlaten of de telefoon in de zak doen. Klaar. Einde van de sessie met de reeds opgestelde regels. Waarna nog een sessie volgt met eigen regels. Die soms super energiek en leuk is, en soms ontzettend tam en saai.
Hilariteit en trots als eerst één deelnemer maar daarna meer dan de helft van de groep ontdekt dat ze o.b.v eigen regels de groep kunnen verlaten. En dan hebben ze het écht begrepen. Zelf je eigen systeem maken hoeft niet, als je maar wel de controle krijgt (en die benut) om de regels te bepalen die bepalen wat je doet.
STRP festival 2019 – scholierenprogramma
Algoritmes en Artificial Intelligence bepalen in toenemende mate ons doen en laten, zonder dat wij weten waarop bepaalde keuzes gebaseerd worden. Is dat acceptabel, of moet daar verandering in komen? En wat zijn de opties? Het “IF this THEN I” systeem biedt hands-on inzicht in de thematiek. Met een interactieve online web-app, die beschikbaar is voor workshops en presentaties, ervaren deelnemers tezamen in een sessie hoe het voelt om aangestuurd worden door hun eigen algoritme waarvan zij de regels wél zelf in kunnen stellen. De interactieve sessie vormt een aanknopingspunt voor de verkenning van de vraag hoe we ons als mensheid kunnen voorbereiden op onze techniek-georienteerde toekomst.
Expositie: “Be Your Own Robot”
Een solo-expositie met recent en nieuw werk rondom het thema “Be Your Own Robot”
11/04/2019 – 30/06/2019 / Tetem Enschede
Al jaren is Sander Veenhof gefascineerd door het fenomeen Augmented Reality. Door te programmeren van alles kunnen maken en daar de fysieke werkelijkheid mee beïnvloeden, dat levert hem vrijheid en oneindig veel mogelijkheden op. Sinds mensen massaal in beweging kwamen toen er virtuele verschijningen op elke straathoek opdoken, werd het iedereen duidelijk dat AR echt impact kan hebben op de wereld om ons heen. Maar AR staat op het punt om nog ingrijpender ons doen en laten te gaan bepalen. Als “AR brillen” comfortabel genoeg zijn geworden zullen we verleid worden om die vaker te dragen. We zullen dan doorlopend geïnformeerd worden waar we heen moeten, wat we moeten doen en hoe we dat moeten doen.
De tentoonstelling “Be Your Own Robot” gaat in op een vraag die zich dan aandient: gaan we in de toekomt als robot door het leven, of is er nog een mogelijkheid om jezelf te zijn? Als software bepaalt wie je bent en wat je doet, hoe ziet zelf-expressie er dan uit? Ooit zal je uit een virtuele garderobe een outfit uitkiezen als je de straat op gaat. Maar jezelf vormgeven gaat in de toekomst over meer dan het visuele. Laat je ‘de cloud’ beslissen wat je doet en waarom? Of ontwerp je met “IF_this_THEN_I” je eigen algoritme waarmee je wordt aangestuurd? En wat als je daarin verhinderd wordt omdat Big Tech je slimme script al heeft gepatenteerd? Het zijn vragen die nog erg abstract klinken omdat we ons nog niet goed kunnen verplaatsen in onze toekomstige zelf. Om daar meer inzicht in te krijgen is de Futurotheek in het leven geroepen. Een fictieve app store waarin apps zijn te vinden waarmee we ons eigen functioneren in de toekomst zullen kunnen upgraden.
De tentoonstelling biedt bezoekers een hands-on inkijkje in wat komen gaat. Met meer zicht op de ingrijpende ontwikkelingen die ons te wachten staan, ontstaat meer vat op de uitdagingen én oplossingen die daarbij van toepassing zijn. De tentoonstelling past daarom in het thema “Driving Technology”. Als maatschappij maar zeker ook als individu is het van belang te weten hoe we een rol kunnen spelen bij het zorgen dat de maatschappelijk relevante ontwikkelingen op het gebied van techniek zich voltrekken op een manier die we wenselijk vinden.
TEDx How to be your own robot?
When I was a child I enjoyed programming my commodore 64. I felt powerful, being able to create anything and letting the machine do what I wanted by just summarizing an idea into clearly defined instructions and rules. If this, then that. Some people think of programming as something obscure or complicated, but it’s as simple as: if it rains, I take an umbrella with me. When a gameplayer presses the left key, the character on the screen moves left. The basic principles are still the same, but the way computer creations manifest themselves has changed. And their impact too.
If we look at the developments of the computer industry, we actually see the changing role and position of computers in our society. With the capacity and power of computers growing, and their size and price shrinking, we can see a growth of the amount of tasks for which they could provide help and assist us. They started having an opinion about the world when they got connected to the internet. And with the mobile revolution, and the upcoming augmented reality revolution, a computerized vision on the world will be fully merged onto day to day reality.
But obviously we’re worried about this. We collectively complain about side-effects of being so utterly connected to the whole world, but no longer having an eye for our surroundings and people in our vicinity. And there’s discussion about the influence of social media companies. Their scripts define what we see and encounter. Mixing ads and fake news content into the flow of content we absorb each day. Currently, this only applies to what we see on our computers and mobiles. But once the age of wearables takes off, transparent screens in front of our eyes will have a continuous impact on what we see, but the impact will extent to include much more of our behaviour and what we do.
Our complaints have been heard. Facebook for example has announced to change their algorithms to let us see more of the activities of our friends and family. But why should one company decide and define this focus for all of the worlds population? Their algorithm is a black box. The only adjustment we can make is to switch on or off groups of people and their content. When switching everything off, an empty feed is the result.
There’s a growing community of people that are worried about the power of facebook which is based on all the data it feeds to us and grabs from us. Their algorithms study what we see, like and do. There are suggestions to urge these companies to let users own their own data, but that’s only halfway a solution. We want to own our data, but we also want to know which insights are gathered and which meta data is collected, and how that influences what we see on our feed.
So the split up of these social media companies needs to include their algorithms too. Just like IBM was split into a software and hardware part, and Microsoft was forced to decouple their Internet Explorer browser. As users of social media, we want transparency. We want to be able to decide which algorithm runs our feed. Some people will want ease of use. Some will want a fully customizable mechanism. If it rains, I take an umbrella. If it rains, I take an umbrella, except when it storms and I only need to walk a little distance, but not when .. etcetera.
In the case of a news feed, we can always quit a system if we don’t agree with lacking the freedom to choose the algorithm. But the discussion about deciding which algorithm runs your feed is going to be more fundamental once the social media companies are responsible for guiding us throughout our day to day life with instructive content about when and when we need to be. The mobile phone is already our personal assistant. But the assistant is becoming more than just an assistant. It’s going to be our coach, doctor and trainer, accessing stored data and live data gathered from sensors and our wearables. Instead of just matching dates and guiding us towards our appointments and bussiness meetings, it will keep guiding us throughout activities.
Currently, the devices are not having the right shape yet. Most of them aren’t inobtrusive and subtle yet, but progress is made rapidly.
Looking at the scheme of things and the flow of data, it’s clear that a black box should not be at the centre of everything, especially when the processing in the black box is increasingly based on artificial intelligence and untraceable neural networks. Instead of a black box at the centre, we should be at the centre. But for that to happen we need a new design for humans, once we really enter the cyborg era. We need an API, and application programming interface. A plug-in structure, so developers or fellow users can create scripts or services and we will be free to decide which specific components make up our day-to-day routine. We can shop around to include components by other companies, governments or open source communities. Or we can write our scripts and logic. And we’d better start doing that now, because when looking into the future by studying the patents that are already being filed today, we can see how the tech industry is getting ready to deploy us as robots. Being to big to beat, it’s going to be unavoidable that it’s going to be a battle between the big 5. Will the only freedom of choice be to choose a flavor? Will you end up in an google reality, an apple universe or will Amazon augment your reality?
Assisted by devices, it’s going to be a fantastic D I Y reality, we’re told. But are you really doing things by yourself, if you’re following the strict guidance of a device that controls you? Is it going to be a challenge to be your own robot? It will be, if we don’t change things radically right now. And that will be the real challenge.
For some people, it will be enough to at least know which scripts are running your life. For others, it will require a bit of programming. But that doesn’t mean it’s going to be complicated. It will be a matter of translating your preferences, your interests, your taste and your default behaviour into rules. Rules that will apply to you. We’ve already slowly grown accustomed to the influence of software and devices on our life, and we react based on what they tell us. So nothing is new. A device will tell us what we do, what to say and what to feel, but at least we know why this is the case.
Initially, these scripts will be basic. Definitely not comparable to the finetuned control the big companies will be able to give us, based on their years and years of monitoring us. But if we start building and shaping and creating our own behavioural scripts now and perhaps even sharing our some of our routines in an open source community, we can collaboratively create a hive mind that’s really us. Operating free of commercial purposes or stock holder interest. Start programming yourself today and escape the inevitable future! Be your own robot!
Augmented Reality Art: From an Emerging Technology to a Novel Creative Medium
I have contributed a chapter to this book with the following title:
“Living and Acting in Augmented Words: How to Be Your Own Robot?”
ABSTRACT:
The AR user experience is currently shifting from passive viewing to active engagement. Augmented reality wearables are going to be as common as smartphones are today. In a 24/7 augmented reality world, we risk becoming empowered and controlled by efficiency-focused algorithms. How to be your own robot is going to be the main challenge. In the near future, there is not just an opportunity for art to manifest itself in new ways, but there is also an urgency for that to happen. This chapter describes this shift with references to some of author’s own projects to illustrate the various ways in which AR art can manifest itself.
Peek inside the book with a search for “Be Your Own Robot”:
https://books.google.nl/books?id=eMJNDwAAQBAJ&pg=PR15″
Order info:
From an Emerging Technology to a Novel Creative Medium
Series: Springer Series on Cultural Computing
Geroimenko, Vladimir (Ed.)
ISBN 978-3-319-06202-0