15 april 2010



Dankzij Edwin Mijnsbergen kwam ik text 2.0 tegen. Een initiatief dat je helpt om je leeservaring en gedrag op digitale toestellen beter op mekaar af te stemmen. Waarbij geluiden, afbeeldingen en andere effecten geactiveerd kunnen worden door je leespositie.

Iets dat het via een detectie systeem weet te bepalen. Zo kan het de tekst gaan uitdunnen als het vaststelt dat je de tekst summier overloopt. Maar het bied evengoed de mogelijkheid om onduidelijke woorden te verklaren of hun context via bijvoorbeeld Wikipedia op te halen.

Een concept dat je grotendeels in "iPad Alice", dat je in het filmpje hieronder kan zien, gebruikt wordt. Dat je voor deze "uitvergrote PDA" kan downloaden in de "app store". Al gebeurd alle interactie hier na een interpretatie door de gebruiker ipv. omgekeerd.

Het is met andere woorden een technologie die al haar eerste stappen heeft weten te zetten dankzij de geïntegreerde evenwicht sensoren die het mogelijk maakten om er tal van nieuwe toepassingen op te bedenken.

Een weg die nu ook stapsgewijs door de sensoren voor deze interactie zullen doorlopen worden.  Wie weet leid dit wel tot een dubbele camera op draagbare toestellen.  Het versterkt in elk geval de trend dat ook het bestaande aanbod aan informatie evolueert dankzij zulke mogelijkheden.

Leave a Reply

Subscribe to Posts | Subscribe to Comments

- Copyright © infocaris