05 12 2022
Retour a la home
Rubrique Économie
Économie
Rubrique Société
Société
Rubrique Technologies
Technologies
Rubrique Culture
Culture
MOTS CLÉS
 
Tous les mots

DOSSIERS...
 Le projet |  L’équipe |  L’association |  Nos outils  | Actualités |  Sources |  Alertes  
Abonnés : connectez-vous

 
Oubli du mot de passe
TRANSFERT S'ARRETE
Transfert décryptait l'actualité des nouvelles technologies, proposait un fil info quotidien et une série d'outils de veille. Notre agence, refusant toute publicité, dépendait de ses abonnements.
  COPINAGES
Ecoutez Routine.
Protégez-vous.
Auditez votre cybersécurité.
Chiffre du jour
700 000
dépistages génétiques chaque année en Europe, selon la Commission européenne (...)
Revue de Web
 Lindows harcelé
 Cyberdissidents vietnamiens en appel
 Plus de CO2 = moins d’eau potable
Phrase du jour
"Ce service public que nous assurons a besoin de votre soutien pour perdurer"
L’association Inf’OGM, qui justifie la fin de la gratuité de son bulletin d’information (...)

Dossier
Le nucléaire mis au secret
Dossiers récents
 Racisme en ligne : l’affaire Sos-racaille
 Le fichage des passagers aériens
 La bataille des brevets logiciels
 L’impasse énergétique
 L’hydrogène, une énergie (presque) propre
Tous les dossiers
Spacer
Unes de la semaine

lundi 1er/12 Transfert.net

vendredi 28/11 Économie

jeudi 27/11 Société

mercredi 26/11 Culture

mardi 25/11 Économie

Spacer


31/07/2000 • 20h33

Le Web trop vaste pour les moteurs de recherche

Selon une étude de BrightPlanet, le réseau Internet est 500 fois plus vaste que la zone - déjà énorme - connue des moteurs de recherche. Il faut dire que le Web recèlerait quelque 550 milliards de pages !

Tous les chiffres qui concernent Internet ne peuvent être que des estimations, mais elles donnent le vertige : ainsi, une étude de la firme californienne BrightPlanet révèle que la Toile dans son intégralité est 500 fois trop vaste pour pouvoir être quadrillée par les moteurs de recherche, même les plus puissants. Jusqu’à ce rapport - rendu public pour promouvoir Lexibot, un nouveau logiciel de recherche ultra-puissant - on savait les dimensions du Net pratiquement comparables à celles de l’espace intergalactique. Mais on ne soupçonnait pas une telle ampleur. Réunies, les "araignées" (le surnom des moteurs de recherche) peuvent ainsi indexer un milliard de pages, alors le Web en compte plus de... 550 milliards. Ce No Man’s Land du cyberespace compterait quelque 100 000 sites. Les 60 plus gros sites de cette partie du Web dite invisible ou profonde sont déjà plus de 40 fois plus larges en information que ce que tous les moteurs peuvent quadriller !

Des "trous noirs"

Les documents non visités se trouvent dans les bases de données. Ce sont des pages dites "dynamiques", alors que les moteurs s’intéressent surtout aux pages statiques. (Par exemple, un moteur trouvera la page de une statique de Transfert, mais pas le présent article dynamique, rangé au sein des archives). Pourquoi ? "Les moteurs ne peuvent ou ne veulent pas y avoir accès car ils pourraient accidentellement tomber dans un « piège à araignée », qu’on appelle aussi un « trou noir »", explique Danny Sullivan, responsable de SearchEngineWatch.com, un site spécialisé dans les moteurs de recherche. L’effet serait désastreux pour l’araignée, qui ramènerait encore et encore le même document sous des adresses url différentes. Résultat : des informations qui seraient, selon BrightPlanet, 1 000 à 2 000 fois plus riches que celles du Web visible échappent aux internautes. Et gâchis énorme, les moteurs "laissent tomber la moitié des pages, qui n’ont aucun intérêt", explique Olivier Andrieu, consultant Internet de la société Abondance, car elles sont dénuées de texte ou répétitives... Bref, les “araignées”, comme les humains, manquent encore de souffle pour aller explorer les fonds abyssaux du Web, qui livreront peut-être un jour leurs secrets.

 
Dans la même rubrique

28/11/2003 • 19h29

Quand le déclin de la production pétrole mondiale va-t-il débuter ?

28/11/2003 • 19h19

Les réserves de pétrole sont dangereusement surévaluées, dénonce un groupe d’experts

25/11/2003 • 19h13

Les hébergeurs indépendants ne sont toujours pas responsables, pour l’instant

25/11/2003 • 19h04

Les licences Creative Commons bientôt disponibles en français

21/11/2003 • 19h36

Deux affaires judiciaires relancent la polémique sur la responsabilité des hébergeurs
Dossier RFID
Les étiquettes "intelligentes"
Dernières infos

28/11/2003 • 18h33

La Criirad porte plainte contre la Cogema pour avoir diffusé des infos sur les déchets nucléaires

27/11/2003 • 19h01

Un traité onusien veut obliger les belligérants à nettoyer les "résidus explosifs de guerre"

27/11/2003 • 17h14

La Cnil met les"étiquettes intelligentes" sur sa liste noire

26/11/2003 • 19h06

"The Meatrix", un modèle de dessin animé militant, hilarant et viral

26/11/2003 • 18h54

Un observatoire associatif pour lutter contre les inégalités

26/11/2003 • 18h47

Pour les Etats-Unis, les essais nucléaires ne sont pas encore de l’histoire ancienne

24/11/2003 • 22h09

EDF refuse d’étudier la résistance de l’EPR à une attaque de type 11-septembre

24/11/2003 • 18h36

La Grèce bannit la biométrie de ses aéroports à un an des Jeux olympiques

24/11/2003 • 18h16

10 000 manifestants réclament la fermeture de la School of Americas

21/11/2003 • 19h04

Un anti-raciste poursuivi en justice pour antisémitisme

21/11/2003 • 18h48

Le festival Jonctions confronte art, technologies et éthique

20/11/2003 • 19h28

Un fonctionnaire ne peut utiliser sa messagerie professionnelle à des fins religieuses

20/11/2003 • 19h00

Les technologies de surveillance automatisée tiennent salon au Milipol 2003

20/11/2003 • 18h22

Zouhaïr Yahyaoui libre, les cyberdissidents tunisiens restent harcelés par le régime

20/11/2003 • 16h29

Le site parodique Send Them Back milite pour le renvoi de tous les mp3 "volés" à la RIAA


Contacts |  Haut de page |  Archives
Tous droits réservés | © Transfert.net | Accueil
Logiciels libres |  Confidentialité |  Revue de presse

Page not found