
31 mai 2013
Si jusqu’à présent nous pouvions, la plupart du temps, accéder au code source et donc mesurer ce qui était pris en compte, c’est de moins en moins le cas, et cela risque de le devenir toujours moins avec les données massives.
A l’heure des algorithmes, des APIs et des données massives (c’est-à-dire des traitements, des croisements et des vastes ensembles de données), le code, qui était le fondement d’internet, se complexifie. Il n’est plus la loi, comme nous l’avait appris Lawrence Lessig. Il ne se régule plus par la transparence. On ne peut plus regarder le code source de Google Translate pour en comprendre le fonctionnement. Et c’est d’autant plus vrai à mesure que les données, les croisements et les traitements se démultiplient, se complexifient et s’imbriquent. Et l’une des conséquences est bien le changement de l’internet tel que nous le connaissions.
Source : Le Monde
Vu 1 112 fois