New skills

Are we going to be wearing the AR glasses the tech industry is now getting ready for us? Then we’d better get involved in creating our own use-cases instead of the boring future scenarios Big Tech envisions for us, because the impact of these devices on our life will be huge. Wearing AR glasses not only means your environment will get an upgrade, people wearing AR glasses will also be upgraded. For example, with new skills that will make someone the fastest graffiti writer in the world.

When creating AR experiences, I’m not just trying to replicate existing practices we know from the physical world, and then recreating them virtually. Instead of being just a (lesser) substitute, I’m trying to find ways to let AR be an improvement by using the new opportunities and the freedom the technology provides.

But finding the right balance is important too. There’s no limit to what digital technology can do, but when working in mixed reality it’s important to let the non-technical aspects play a significant role too. Yes, creating graffiti using this AR effect will be a piece of cake, requiring just a snap of the finger. But controlling the digital universe with the right physical gesture will still be quite a challenge.

The (?) Metaverse

Today I got a Linkedin message asking: “Hello! Could you contribute your knowledge about the metaverse to our Q & A database?”

I replied:

Thanks for the invite. I must confess that I’m rather puzzled these days about the whole metaverse topic, so I doubt if I have anything relevant to contribute. For me the journey into a metaverse world started in Second Life, but it also ended there: https://sndrv.com/secondlife

Currently I’m fore mostly creating AR. Personally, I am in doubtful about the whole idea of shippable identity that goes from world to world. To me, it seems a benefit to be one person in one domain, and be a totally disconnected being in another space. But that seems to be the oppositie of what the tech world wants to hear these days.

I do even think that we should differentiate our own identities in the real world, and be able to switch from one mode to the other. That will become a relevant topic when we enter the age of AR, which will co-exist or be part of the metaverse. Conclusion: it’s very hard to say anything meaningful at this time, let’s see how this evolves organically. And let’s hope that happeny with the right dynamics between Silicon Valley and the rest of the world which will be impacted by choices and developments made collectively and individually.

Second Life walkie talkie walks

Snap Spectacles

2022 started really well! I’ve received a 2nd pair of Spectacles, the Snap Inc. AR glasses.

I’m very excited, even though I know that collaborative multi-user AR isn’t new. It’s a real classic and an often mentioned use-case in certain contexts.

But these #ARglasses are consumer oriented, can be worn anywhere, and they work great outdoors. So having two of them enables me to explore and imagine: what happens when AR isn’t something you experience on your own, but what will it mean for my day to day life when I occasionally meet other people wearing AR glasses too?

In the coming years we might be encountering lots of folks with these devices, all day long. Now it’s about one duo, but still it’s a significant step into the future ahead of us!

Be your own robot , week 0

En dan heb ik het over week 0 van 52 weken. 52 weken waarin ik ga kijken wat er nodig is om in mijn eigen leven m’n relatie met “Big Tech” radicaal om te vormen. Ik wil niet meer de afhankelijke positie hebben, waarin apps en websites mij iets voorschotelen, of adviseren of aansturen op basis van een black box, met algoritmes en scripts die mij steeds beter leren kennen dankzij steeds meer data die over mij wordt opgeslagen. Dat is een dilemma waar velen mee worstelen, want het is lastig om een alternatief te vinden voor allerlei toepassingen of systemen die zich nuttig maken, en goed en zelfs steeds beter functioneren. Ik vind dat allemaal nog wat extra zorgelijk omdat het moment steeds dichterbij komt waarop we de gehele dag door met een AR bril gaan rondlopen, ik wel in elk geval. Misschien dat dat aanvankelijk niet eens een bril zal zijn die draait om ruimtelijke AR vertoningen, daar spelen nog wat haken en ogen. En omdat niet iedereen een montuur op de neus wil, is het niet ondenkbaar dat we ook de optie gaan krijgen om rond te gaan lopen met een piepklein cameraatje dat de gehele dag met ons meekijkt. Niet zozeer om een complete videoregistratie te maken van ons leven, zoals in science-fiction films en series. Maar wat die camera’s wel gaan doen is het beeld analyseren met steeds slimmere computer vision algoritmes. En wat daar uitkomt, dat wordt wel opgeslagen en bewaard. Waar we zijn, wat we zien, wat we doen, wie we ontmoeten. Mark Zuckerberg hoeft niet eens meer af te wachten of we misschien op ‘like’ gaan klikken als iets ons bevalt. Als tegenover ons iemand lacht om onze grap, wordt dat gedetecteerd en gaat dat ook rechtstreeks richting de cloud. Dat gaat een enorme hoeveelheid extra data opleveren over ons en onze omgeving, waardoor het voor AI scripts nog beter mogelijk wordt om ons goed te begrijpen en ons feilloos aan te sturen. Als je daar over 10 jaar nog aan wilt ontsnappen, wordt dat moeilijk omdat je dan 10 jaar aan datavergaring achterloopt. Dat haal je nooit meer in. Tenzij je nu alvast begint met het aanleggen van je eigen data verzameling. Je download periodiek je google maps timeline. Of je gebruikt een open source GPS tracker om die data te verzamelen. Voeg er ook geregeld een dump aan toe van alle data uit je fitness tracker. En je kliks en keuzes op youtube of netflix. En zelfs al zijn al die datasets incompatibe, en is er vooralsnog niet een toepassing die er iets mee kan, toch downloaden. Want niet al starten met het sprokkelen van data is een slecht idee. Wat als een partij die jouw data beheert over een paar jaar de stekker eruit trekt, en je te laat was met downloaden? Nu alvast doen dus. En wat dan een volgende stap kan zijn: geleidelijk overschakelen op diensten die niet ingericht zijn op het verzamelen van jouw data om je zo goed mogelijk te doorgronden. Dat de cloud jou zo feilloos snapt, daar wil je van af. Want eigenlijk is het onwenselijk dat je niet weet welke software daar wordt gebruikt om je data te verwerken en een profiel op te stellen. Die keuze wil je zelf kunnen maken. Die mogelijkheid komt binnen handbereik zodra je over voldoende eigen data beschikt. Dan kun je ook je eigen AI scripts gaan draaien, op je eigen dataset. Dan kan de buitenwereld aankloppen bij jouw zogeheten “API”. Dan kan Big Tech vragen of je ergens interesse in hebt, in plaats van je vertellen dat je iets wilt.

Best een flinke reeks nieuwe termen misschien, die komen nog stapsgewijs uitgebreid aan de orde de komende 52 weken. Maar de radicale stap, de gedachtestap is bij deze gemaakt: ik ga in elk geval voor mijzelf kijken hoe ver ik kom met het herinrichten van mijn half digitale leven, volgens mijn eigen wensen en voorkeuren. Want dat is het voordeel van zelf het beheer doen van je half digitale leven. Dan kun je kiezen om in sommige situaties een onnavolgbaar AI script op je data los te laten, en oms wil je wat meer inzicht in de beweegredenen van geautomatiseerde beslissingen die voor je gemaakt worden. Nauwgezet kunnen configeren wat je wel en niet wilt, dat is cruciaal. Want leven in een half digitale wereld is geen wel of niet keuze. We kunnen er niet meer aan ontsnappen, en ook niet ontkennen dat het zinvol is om algoritmes een rol te geven in ons leven, maar toch is het wel belangrijk zelf de regie te hebben. Of in elk geval te bepalen wanneer je zelf de regie wilt hebben, en wanneer niet. Deze toelichting maakt hopelijk de titel van deze verkenning een beetje duidelijker. Be Your Own Robot. Met mij als proefkonijn. Tot volgende week!

Kunst en AI

In steeds meer situaties krijgen we te maken met Artificial Intelligence. Is dat iets wat ons overkomt, of kunnen we ook een actieve rol spelen? Kunnen we kiezen hoe we AI toelaten in ons eigen leven? Kunnen we er zelfs iets mee in onze kunst-praktijk? Of is dat het domein waar van specialisten? Nee, tegenwoordig zijn er uiterst eenvoudige en toegankelijke tools. En het is bovendien zelfs noodzakelijk dat er ook buiten de techniek-sector met kunstmatige intelligentie geëxperimenteerd wordt. Dankzij AI kunstprojecten ontstaan nieuwe inzichten en krijgen we een beter beeld van de mogelijkheden en onmogelijkheden. En dat is belangrijk omdat het gaat over een techniek die een steeds grotere maatschappelijke impact heeft. Dat betekent dat de verkenning wel een stap verder moet gaan dan de vraag of AI schilder-algoritmes goede kunst opleveren. In een levendige en beeldende presentatie zal ‘creative coder’ Sander Veenhof schetsen op welke manieren AI en kunst wat aan elkaar kunnen hebben.

https://www.radiantlerarenopleidingen.nl/radiantdag2021

New AR hardware

I’ve been working in the AR domain since 2010, and most of my contacts know that. So when there’s something new, like yet another announcement of new #augmentedreality hardware, I sometimes get multiple messages from contacts to inform me about it. “Have you seen this?!” Yes, I have. That’s also my filter bubble.

To avoid getting those messages, I started photoshopping newly announced hardware into my profile images on social media. For the 2021 Chinese Oppo #AR wearable I pre-emptively recorded myself testing the device. A video that also expresses my foremost curiosity. We’re reading about the hardware specs of the device, but isn’t it the OS software what should interest us most?

You can give the device a virtual try by activating this #facefilter in Snapchat (Sorry, that’s the only platform that accepts these sketchy minimalistic AR filters)

https://www.snapchat.com/unlock/?type=SNAPCODE&uuid=142552586748453981d27a277c1c37b3&metadata=01

AR wearables

AR glasses come and go. But they’re probably here to stay. It’s about time for an update of my old augmented reality wearable overview graphic (see below). A new competitor is on its way! Oppo AR Glass: https://www.roadtovr.com/oppo-ar-glasses-2021-release/

Will people be tempted to buy this gadget, judging it on its’ price? Or on its’ weight and comfortability when wearing it 24/7? Or should we be uncomfortable, and suspicious, wearing Chinese hardware and having Chinese software (軟件更新,謝謝) running on this device, peeking into our lives wherever we go?

No worries. Let’s all have some thrust in the “Smartglass Ja1lbreAking Community sub-reddit” and split-up the hardware, software and cloud connection so we can safely enter the AR/MR universe of our choice!

Online/offline event at DDW20

It’s going to be a weird Dutch Design Week this year with no live events and gatherings in Eindhoven. But it makes me extra curious about the outcomes of the project I submitted for the virtual program. Despite being in that program, “Be Your Own Robot” is not an online-only event. It’s a hybrid event, mixing online connectivity with offline activity.
It’s about physical participation and being part of a collective experience as a distributed audience. Don’t worry, this is not going to be another Zoom session. There won’t be any streaming or fancy 3D rendering. This is about holding your phone in your hand, programming yourself, reacting on other participants elsewhere and experiencing their real-time presence as #DDW20 audience in an abstract way. Will you join on October 17th?

https://ddw.nl/en/programme/3600/be-your-own-robot

Zoom++

Each time I’m in a Zoom session, I can’t help to think about changes I wish to make to the program. Fortunately, some features I can add by programming my own interactive #virtualforeground. But some things seem more complicated, such as fixing the problem that it’s difficult to have any small talk in our #WFH days full of efficient videoconferences. Sometimes I want to briefly ask people in private how they enjoyed their holiday, but I don’t want to invite them to an invisible break-out room just for that. Nor do I want to turn myself into a 3D avatar to wander around looking for other ‘people’ to talk to. All I need is a simple 2D overview of attendees so I can drag myself towards conversations I see happening somewhere (and people there can change the subject if they see me arriving witin the realm of their sound bubble) Perhaps I could even duplicate myself to listen to two talks at the same time? Is there any environment like the one sketched below that you can recommend me? (Or should I just put creating this adaptation of Zoom on my #todo list?)

AR screensavers

It has become tradition. For every new augmented reality medium or platform, I’ve been making screensavers. Each time with an accompanying story about the relevance for the specific AR context.

2020 Screensaver for Zoom. With additional features. Telling your fellow chat partners why they’re looking at an empty space – filled with a screensaver

2019 Mobile AR: with the spatial features of ARcore it’s now possible to experience the screensaver as an immersive manifestation, happening in the space around you.

2013 Google Glass screensaver: when the whole world got very excited about Google Glass, this screensaver addressed the issue that peeking into your AR wearable there’s often nothing relevant to display at your current whereabouts and situation.

2011 My first AR screensaver: a recreation of classic screensavers as XXL scaled appearances. A screensaver for the screen of the future, meaning the world around you, seen through an AR device.