Comme suite à l'annonce de la journée d'étude scientifique sur
Wikipedia, l'explication de mes attentes.
Vous trouverez sous http://wikifutura.net un début de travail de
réflexion sur le "wiki 3.0" qui diluera le phénomène Wikipedia dans
une problématique plus large bien amorcée par Wikimédia Allemagne
avec wikidata
(http://www.wikidata.org/wiki/Wikidata:Accueil_principal), mais que
se refuse à considérer l'association Wikimédia France [je force un
peu pour les pousser à s'en expliquer s'ils le souhaitent], alors
même que par son propre accord avec l'INRIA et le Ministère de la
Culture elle y est déjà aussi rentré à reculons.
Pour bien comprendre la logique réseau derrière ces 1.0, 2.0, 3.0
telles que je les utilise, nous sommes ici dans les couches "6
présentation", "8 interopérations", "9 interapplications" d'un modèle
OSI étendu (OSEX).
- le réseau internet souffre de l'absence de sa couche 6 présentation
que remplace en partie le Web, SSH, etc. Ces patchs fournissent un
sentiment d'utilisation "1.0".
- ce "1.0" correspond à une configuration virtuelle du réseau en
"maître-esclave". Tout est centré sur le serveur. L'échange
d'information de type mail se fait comme ce message.
- le "2.0" correspond à une évolution vers le "client-serveur "et des
échanges entre le navigateur et le serveur. C'est dans le cas du
patch Web les solutions de type AJAX et RESTfull. L'échange
d'information type mail passe au niveau Wiki (assez gros travail de
lecture et de présentation sur le client navigateur).
- le "3.0" correspond à une évolution vers le distribué et donc le
"pair à pair". Tout devient centré sur le réseau. Dans le cas du
patch Web, c'est l'évolution que l'on voit arriver avec les
développements de type Apache CouchDB, Wakanda (js.everywhere), etc.
C'est l'évolution vers la méthode que j'appelle ASAP c'est-à-dire
"Applications and Services As a Protocol" coordonnée peu à peu selon
un OS réseau (netix). Dans ce contexte les applications ne sont plus
définies comme des Applications locales, mais des Applications
globales et des Services étendus qui dialoguent entre eux avant de
produire un résultat "virtuel" à partir des données réelles obtenues
de différents serveurs. Dans le cas du Wiki 3.0 cela généralise le
concept de wikis fédérés exploré par Ward Cunningham le concepteur du
wiki. En fait cela dissocie la question de la réponse.
Ainsi dans le cas de Semanticpedia (http://semanticpedia.fr/) la
question va vers le serveur sémanticpedia qui en évalue la sémantique
et la route vers la source de réponse optimale. Dans la mesure ou
sémanticpedia a passé des accords avec différents wikis et où si
possible ceux-ci utilisent le même protocole de réponse (ce qui est
le cas visé par wikidata. Le serveur n'est plus le centre du
processus, mais un sous-traitant d'un concentrateur/gateway.
- on peut alors pinailler sur un "3.5" qui correspondrait à
l'inclusion de cette gateway sur la machine client. Ma vision est
plus simple : c'est celle de comprendre le réseau comme un agrégat
agorique (agora de logiques diverses) d'objets supervisés au nom de
chaque utilisateur par son "IUI", interface d'utilisation
intelligente. C'est l'idée qu'a repris Vint Cerf avec Google+ qui
tire pleinement avantage de l'architecture multiservice de Google
pour unifier l'expérience utilisateur. Dans le cas de Google+ ils
offrent une unification chez eux, dans mon approche généralisée les
IUI sont chez l'utilisateur. C'est ce que j'appelle l'internet+ (le
PLUS étant les couches 6,8,9 comme des Plugged Layers on the User
Side) (cf. IETF/IUCG - http://iucg.org/wiki)
Il est probable que l'équilibre se fera selon une architecture
intégrée ou des services seront de type Google+, d'autres de type
Sémanticpedia et d'autres de type Navigateur Intelligent le tout sous
le contrôle d'un superviseur personnel à chacun, à interface
sémiotique du tout en entrée et sortie (toutes les formes
d'intercompréhension possibles). C'est alors le niveau de
l'"intersem" (internet sémiotique), où les couches réseau (1-5)
seront assurées via de multiples technologies (dont TCP/IP), la
couche 7 (ex. DNS étendu) commune ou interactive constituant le "bout
en bout", le reste avant la socket étant (selon la définition de la
RFC 1958) la frange où se localise l'intelligence.
Si cette intelligence ne gère que des contenus passifs (ce qui est
mémorisé) des serveurs, nous sommes dans un internet+ de plus en plus
intelligent. Si cette intelligence rejoint les rangs de l'IA et se
met à travailler sur des contenus actifs (incluant l'appel à des bots
extérieurs, que j'appelle des "slot" (specialized local operating
taks) nous sommes rentrés dans le domaine de ce que j'appelle donc
l'intersem qui va par exemple, dans le cas du Wiki réagir à une
demande de question opérative, c'est à dire du type "si nous
dépassons l'altitude du Mont-Blanc, annonce-le nous en chantant "we
are the Champions"". Il va:
- comprendre la question
- interroger les différents datawikis et wikis.
- égaliser les réponses en terme de présentation (langues, cultures,
unités métriques, etc.)
- décider d'une hauteur du Mont-Blanc consensuelle entre les wikis
(et donc multiconsensuelle entre les contributeurs)
- entrer les données de l'altimètre.
- connecter la diffusion de l'avion.
- envoyer la réponse l'altitude atteinte en utilisant le fichier de
"We are the champions" dans la version préférée de l'équipe sportive
transportée en classe affaires, obtenue de la même manière par le
recoupement des métadonnées connectées à travers les syllodonnées
(liens intelligents entre les métadonnées), sur les passagers.
Ceci sera nous sera plus clair lorsque l'on pourra travailler plus
sérieusement ensemble sur « ALFA », (Architecture Libre/Free
Architecture). En fait je me propose de l'étendre sous le nome « ALOA
» (Architectonie Libre/Open Agorics) dans la perspective « objet » de
l'approche agorique dont la topologie se précise. J'ai soutenu hier
dans une présentation duale, à la suite de la publication du Livre
Blanc de la Défense et de la Sécurité qui reconnait au cyberespace la
qualité d'environnement, où je présentait le cyberespace comme la
surface de la digisphère. Ceci semble ouvrir de grandes
simplifications, mais avant de reparler de la métaphore je veux
d'abord la valider par le test d'O.Auber, c'est-à-dire l'intégration
des perspectives qui doit y être d'évidence.
Je rappelle la définition qu'Olivier en a donnée : "Pour répondre à
Jfc sur mon acception de la notion de "perspective" : ce qui
m'intéresse pour ma part c'est la rétroaction des modèles sur les
phénomènes humains modélisés. Tous les dispositifs techniques que
nous créons et utilisons répondent à des modèles de l'humain qui
établissent des "perspectives" au sens fort (des "perspectives
numériques") dont les points de fuites sont des codes (des codes de
fuite) issus de ces modèles. Il est dès lors possible de réfléchir
sur les conditions de "légitimité" des perspectives en question (j'ai
ma petite idée là-dessus) et d'observer comment les humains (non pas
les agents) sculptent ces perspectives, les font évoluer, et parfois
les mettent en défaut de manière inattendue. Je crois que les modèles
aussi sont en compétition darwinienne et que leur "légitimité" est un
avantage évolutionnaire majeur. N'est-ce pas le propre de l'humain
que de faire péter les modèles, sortir des gonds, repousser les
frontières, bref d'opérer la sélection, éventuellement entre ceux qui
voudraient l'encadrer.
Je prends le car de la rétronormalisation que je pense être le
nouveau nom de la colonisation version XXIe. La norme décrit la
normalité. Le standard dit comment l'utiliser pour parvenir à un
artefact compatible avec les besoins d'une utilisation. Par là,
l'utilisation des objets standardisés va modifier les usages. Et donc
la normalité. Exemple : internet. Le but est de transporter des bits.
On est arrivé à un standard il y a trente ans. Depuis le "statUS quo"
est la manière de rétronomaliser nos usages de ce transport selon la
normalité des parts de marchés de l'industrie américaine et donc dans
la perspective de la protection de ses parts de marché.
jfc
_______________________________________________
comptoir mailing list
[email protected]
http://cafedu.com/mailman/listinfo/comptoir_cafedu.com