Video: Барри Шварц: Парадокс выбора (Decembris 2024)
Lai iegūtu jaunumus, es bieži skenēju Google News, kurā apkopoti raksti no visas pasaules, pamatojoties uz tendenci, ko "robots" ir noteicis. Tas viss ir saistīts ar tendencēm. Tajā parasti trūkst jaunāko ziņu un pilnībā tiek ignorēti svarīgi komentāri, piemēram, mana sleja. Tā vietā šķiet, ka tā dod priekšroku mirušām saitēm - ar to es domāju Wall Street Journal , kuras lasīšanai nepieciešama abonements.
Šodien tas ir piemērs. No CES parādījās jaunākās ziņas par Trauku tīklu, kurš izteica cenu pirkt Clearwire. Bet tā vietā, lai saistītu ar jebkuru no saistītajiem stāstiem no bezmaksas un lasāmām vietnēm, Google nolemj, ka visaugstākajam stāstam vajadzētu būt no Wall Street Journal .
Agrāk uzņēmumam Google bija sava veida darījums, kas ļāva lietotājiem vismaz izlasīt vadošo rindkopu vai pat visu rakstu, pirms to bloķēja maksājuma siena. Ja vien jūs nezināt apvedceļa triku (apskatīts zemāk), tas vairs neattiecas. Tagad jūs esat nonācis maksas sienā un esat pabeidzis. Es domāju, ka faktiskie abonenti to pārdzīvo, bet es domāju, kā Google robotprogrammatūra to iegūst, lai vispirms atrastu stāstu. Vai Google maksā? ES par to šaubos. Tātad Google robotiem ir jābūt sava veida aizmugurei, vai ne?
Tas ir nepatiess raksturs, un tas ir slikts pakalpojums Google lietotājiem. Google iziet visas šīs nepatikšanas, lai pieveiktu cilvēkus, kuri mēģina spēlēt sistēmu, bet tas ļauj Wall Street Journal vilkt šo triku? Tas būtībā ir apmaksāts par Wall Street Journal abonēšanu. Vai to vēlas Google? Vai Google saņem samazinājumu?
Google nevar būt tik grūti vienkārši novērst šo kaitinājumu. Tas prasītu vienu minūti - piecus galotnes. Vai tas ir pārāk daudz darba?
Ja uzņēmumam ir izveidots taksometrs, kas iekļauts tā pakalpojumā, uzņēmumam Google vispār nevajadzētu meklēt šo vietni. Robotprogrammatūrām ir jāzina, ka ir jāmaksā, un vienkārši jāizvairās no meklēšanas. Jā, es gribētu paskaidrojumu par to, kā tieši robotprogrammatūras var meklēt vietnē, kuru bloķē taksometrs. Tas ir noslēpums.
Maksāšanas platformai jābūt tieši tādai pašai kā robots.txt, kas robotam robotam liek aiziet. Bet kaut kas ir šausmīgs par WSJ un Google attiecībām. Vienkāršākais visu robotprogrammatūru iznīcināšanas veids ir meta tags failā robots.txt, tādējādi: .
Tā vietā WSJ tieši bloķē noteiktas apakšdirektorijas, bet acīmredzot ne visas. Un vēl jo mazāk, ja meklējat Google News tieši tam pašam rakstam, nevis vienkārši noklikšķināt uz nolietotajā saitē, raksts tiek iegūts, izmantojot kādu citu mehānismu.
Es izaicinu vairāk tur esošo tehnisko lasītāju izdomāt, kas notiek ar šiem diviem, izpētot WSJ izmantoto failu robots.txt. Publisks dokuments ir pieejams šeit.
Jebkurā gadījumā vietnēm ir finansiālas intereses sienas. Ja viņi vēlas spēlēt spēles ar savu saturu, tā ir viena lieta, bet tas būtu jāaizliedz meklēšanas rezultātos tādā pašā veidā, kā Google mēģina aizkavēt cilvēkus, kuri mēģina spēlēt sistēmu. Google aizliegs neveiksmīgu emuāru autoru nomest cepuri par pārdomātu izturēšanos. Kā būtu ar darījumiem ar lielākām vietnēm tādā pašā veidā?
Jūs varat sekot Džonam C. Dvorakam vietnē Twitter @therealdvorak.
Vairāk John C. Dvorak:
Dodieties prom no tēmas kopā ar Džonu C. Dvoržāku.
SKATĪT VISUS FOTOS GALERIJĀ