Tag Archives: Verkligheten

Google SEO Hör Länkar till Verkligheten

6 Apr

Densitet av länkar utifrån ? eller

Densitet av länkar till en bekräftad Verklighet

Google funderar allvarligt på att låta inlänkar från andra webbplatser minska drastiskt i betydelse för att låta länkar till verifierbar fakta och faktamässighet öka i värde, för att ge Trust värde och därigenom premiera webbplatser & sajter med få faktafel och få missvisande påståenden.  vilket är en intressant vägning av algoritmen som egentligen är lika självklart som språket. Dess egentliga styrka ligger i densiteten det angör verkligheten med. Se Google nu

Google & Links to reality

-Ju närmare verifierbar verklighet Innehållet är desto starkare länkar de till en allmänt verifierbar verklighet. Och får därmed ha ett högre allmängiltigt värde.

 

How Real is Really reality – Hur verklig är egentligen verkligheten

Tanken är dock att sortera bort resultat från personer och gruppers personliga intressen att driva resultatet åt ett eller annat håll. Och att detta ska ske via att se vilka grupper som hänvisar till belagda fakta och vilka som har påståenden som inte är fakta dvs de som ljuger ska nedgraderas till förmån för de som inte ljuger och hur ska nu algoritmen veta detta kan man gott undra. Frågan är väl egentligen bara den gamla – och hur vet du vad som är rätt och sanning eller fel och lögn då.

Svaret är ganska komplext men Google har tillsatt flera arbetsgrupper för att kunna svara på frågan i praktiken i stället för att teoretisera i ämnet. Google har sedan länge arbetat med data från ”Knowledge Vault” en automatiserad kunskaps bas & kunskapsansamlingsprocess. För vad vill vi egentligen ha som svar på en sökningen? Antagligen vill vi ha en relativt lätt bild av verklighetens anatomi.

-Varför då denna svängning?

-Google Vill Vaccinera sig mot Wacon som Kvackar

Ett flertal gånger har uppgifter på nätet var

 

Google Knowlege Graph & KBT

 

 

it direkt vilseledande i varje fall om man får tro det rådande forskningsläget. Några vaccinationskampanjer kanske visar detta med högsta tydlighet när ett relativt fåtal individer är aktiva i en kampanj mot vaccinationer och sedan länkar till varandra och aktiva sidor i ämnet vilket leder till att sidor med lågt stöd för sina påståenden i vetenskaplig mening hamnar högt upp i resultatet. Vilket sägs vara en av anledningarna till arbetet med att urskilja lögnarna från sanningssägarna om man nu får göra saken så svart och vit, vilket bland annat tidningen Ny Teknik gör när de skriver om att Google letar efter att sortera bort dårfinkarna.

Vad är egentligen verkligheten?

En fråga som kanske låter lite tokig, men som också bör kunna ställas. För sanningen är nog den att verkligheten har ingen utav oss, men alla har våran egen bild utav den. Verkligheten och verklighetens sociala konstruktionsgrunder. Ungefär likt en vägnings som bör kunna angöra alla oavsett religiös tro eller vetenskaplig tro, som vi världen över idag använder olika skriftspråk och dessutom skriver från olika håll men siffrorna är desamma, vi delar de arabiska siffrorna världen över.

(något man kan vara tacksam över en sen natt då man kliver av bussen och ska byta vid Jing Hongs busstation mitt i natten.) (man har i varje fall nått att gå på…)

Google Sorterar utgående och ingående länkar

Så Skriver tidningen Ny Teknik med svart text på vit bakgrund, vilket har en del likheter med Googles panda, pingvin och andra svartvita djur som namn på uppdateringar vars syfte är att få ner sökmotoralgoritmens manipulerbart, dvs mästaren på sökmotoroptimering SEO Google självt förfinar algoritmen och försöker få in lite mer spektra och färg i söksidornas resultatsidor (Search Engine Result Page SERP eller Serpen)

För vi kan nog vara ganska säkra på att det bara är vaccinationmotståndare som Google vill åt, de vill antagligen öka den vedertagna sanningens sökbarhet och minska ned de effekter som andra kan få fram genom att studera och försöka hitta på sätt för att manipulera SERPen till förmån för sina egna sajter och deras synlighet hos förstaplatsen hos Google som visst kan vara värd en hel del en dagarna innan jul för en försigkommen E-handlare eller någon annan Handel Online som tjänar på kortsiktiga resultat, eller åtminstone tror det.

Att uppskatta och premiera Webbkällans tillförlitlighet

För att få fram ett Kunskapsbaserat trust värde eller helt enkelt en värdering av hemsidans tillförlitlighet på ett nytt sätt där fakta spelar utgör grunden för att kunna premiera webbplatser som håller sig till faktabaserad kunskapsåtergivning till förmån för de som inte gör det men kanske har en mer lättsåld vara att komma med om de får stå oemotsagda, vilket kan vara ganska så vanligt i en komplex och dubbelbottnad verklighetsbild med flera ingångs och utgångspunkter.

Google vill att fakta ska vara det högst sökbara

Därmed också att det som inte är fakta utan andra aspekter av verkligheten tex åsikter som saknar faktaunderlag ska graderas ned i sökmotorns resultat lista den så kallades SERPen (search engine Result Page)

Webb spammens topologi och logiken i dess förekomstmönster, kan vara en intressant debatt men också Sokahl-affären och de efterföljande algoritmer för att generera bland anat ”vetenskapliga papper” vilka ser exemplariskt korrekta ut på ytan ganska ofta men ändå bjuder läsaren på en rent algoritmiskt sammanokad skit. Alan Sokal som var professor i Fysik vid New York Universitetet utgick från att den kulturvetenskapliga tidningen Socialtext skulle pulbliceras av dem om de hade rätt yttre format och tilltalade redaktörens ideologiska fördomar. Någon han också visade vara möjligt med en artikel fylld med ren smörja vilken var lätt att flumma till för redaktörens pre-konceptuella böjning.(eller krökta handflata) Se Sokal Affair Transgressing the boundaries in Quantum Gravity eller läs på Bloggen SEO Google som är vilken enligt uppgift är så gott som enbart av de algoritmer som kom i efterdyningen av hela Sokal affären.

Sanningen prioriteras och lögnen ska undvikas skriver Ny Teknik och hänvisar till New Science. Den enkla frågan är dock vad som är sanning och vad som är lögn, som vi såg när det gällde kvasikristaller och hur en man trotts fotografier på tillståndet ändå blev bedömd som paria och inbillningssjuk av en relativt enig kår av kollegor. Efter att han senare fick nobelpris för sina upptäckter visade det sig att han inte var den första som fotograferat tillståndet.

Google Bomben Desarmeras

Enligt New Science så ska Google jämföra data med ”Knowledge Vault” en jättelik databas som byggts upp genom åren och fortsätter att växa, för att genom detta se vilken källa som kommer med vetenskapligt underbyggda påståenden och vilken som inte gör det. Troligen vill Google så klart få bort eller avsevärt minska effekten av en Google bomb

Detta kan vara intressant för Google också i samband med en s.k. Google-Bomb där en viss sida får en massa länkar med en viss text, vilket har lett till att en sökning på ”misserable failure” för en ganska lång tid ledde fram till George W Bush i Vita Huset. Och det är ett korrekt och bevisat faktum att så är fallet.

Dvs George Bush blev alltså summan av vad de länkade användarna sa, vilket är ett annat sätt att se exakt samma sak. Men när vaccinationsmotståndare börjar sprida falska eller illa underbyggda påståenden om Vaccinationer på nätet och också kommer högst i svarsresultatet på grund av att många argsinta aktivister länkar hårt och mycket då tycker man från flera håll att Kvacksalvarna har tagit över nätet.

Dock har Google några gånger påstått att en Google-Bomb inte längre är möjlig att genomför men senast ett test i Sverige på den sammansatta termen Urbota Inskränkthet visade visade att länge var det första sökresultatet som dök upp på den termen av precis samma orsaker som tidigare, dvs något hade köpt upp en massa billiga skräplänkar (vad det nu är) och riktat dem mot partiet med texten Urbota Inskränkthet, varmed den blev ledande på termen trotts att sidan i sig självt inte hade någonting om just det begreppet på någon av sina sidor. Vilket i sak visar att när en viss

Den manipuleringssäkra bilden och Lenin med Iphone i ställe för någon politisk gestikulering kanske mer än något annat visar att teorin och praktik kring  ett bergsäkert antagande om fiffelfritt omöjliggörande av manipulationer är något som går att bilda sig om på flera sätt och på flera plan.

Vad säger egentligen algoritmen med den kunskapsbaserade trusten om : If Madonna is ”like a virgin”?

Sammanfattningsvis har det också blivit mycket mindre av de omtalade uppdateringarna av Google algoritmen som pingvin, panda och alla andra svart vita djur i vår herres hage, detta skulle gissningsvis mycket väl kunna bero på att Google i allt högre grad använder AI algoritmer som själva och fristående genomför små små justeringar mer eller mindre hela tiden, vilket har fått till följd att de generella och stora uppdateringarna av algoritmen har minskat utan att förfiningen av algoritmens precision på något sätt har minskat.

Hoppas att det inte blev alltför förvirrat …  nu. Men stressat var det i  varje fall.

I akt att tolka data i en föränderlig omvärld.

 

Referenser
J. Bleiholder and F. Naumann. Data fusion. ACM Computing
Surveys, 41(1):1–41, 2008.
K. Bollacker, C. Evans, P. Paritosh, T. Sturge, and J. Taylor.
Freebase: a collaboratively created graph database for structuring
human knowledge. In SIGMOD, pages 1247–1250, 2008.
A. Borodin, G. Roberts, J. Rosenthal, and P. Tsaparas. Link analysis
ranking: algorithms, theory, and experiments. TOIT, 5:231–297,
2005.
S. Brin and L. Page. The anatomy of a large-scale hypertextual Web
search engine. Computer Networks and ISDN Systems,
30(1–7):107–117, 1998.
C. Castillo, D. Donato, A. Gionis, V. Murdock, and F. Silvestri.
Know your neighbors: Web spam detection using the web topology.
In SIGIR, 2007.
C. Chambers, A. Raniwala, F. Perry, S. Adams, R. R. Henry,
R. Bradshaw, and N. Weizenbaum. Flumejava: Easy, efcient
data-parallel pipelines. In PLDI, pages 363–375, 2010.
X. L. Dong, L. Berti-Equille, Y. Hu, and D. Srivastava. Global
detection of complex copying relationships between sources.
PVLDB, 2010.
X. L. Dong, L. Berti-Equille, and D. Srivastava. Integrating
conflicting data: the role of source dependence. PVLDB, 2(1), 2009.
X. L. Dong, L. Berti-Equille, and D. Srivastava. Truth discovery and
copying detection in a dynamic world. PVLDB, 2(1), 2009.
X. L. Dong, E. Gabrilovich, G. Heitz, W. Horn, N. Lao, K. Murphy,
T. Strohmann, S. Sun, and W. Zhang. Knowledge vault: A web-scale
approach to probabilistic knowledge fusion. In SIGKDD, 2014.
X. L. Dong, E. Gabrilovich, G. Heitz, W. Horn, K. Murphy, S. Sun,
and W. Zhang. From data fusion to knowledge fusion. PVLDB, 2014.
X. L. Dong and F. Naumann. Data fusion–resolving data conflicts for
integration. PVLDB, 2009.
X. L. Dong, B. Saha, and D. Srivastava. Less is more: Selecting
sources wisely for integration. PVLDB, 6, 2013.
O. Etzioni, A. Fader, J. Christensen, S. Soderland, and Mausam.
Open information extraction: the second generation. In IJCAI, 2011.
L. A. Gal´arraga, C. Teflioudi, K. Hose, and F. Suchanek. Amie:
association rule mining under incomplete evidence in ontological
knowledge bases. In WWW, pages 413–422, 2013.
Top 15 most popular celebrity gossip websites.
ebizmba.com/articles/gossip-websites, 2014.
Z. Gyngyi, H. Garcia-Molina, and J. Pedersen. Combating web spam
with TrustRank. In VLDB, pages 576–587, 2014.
S. Kamvar, M. Schlosser, and H. Garcia-Molina. The Eigentrust
algorithm for reputation management in P2P networks. In WWW,
2003.
J. M. Kleinberg. Authoritative sources in a hyperlinked environment.
In SODA, 1998.
V. Krishnan and R. Raj. Web spam detection with anti-trust rank. In
AIRWeb, 2006.
Q. Li, Y. Li, J. Gao, B. Zhao, W. Fan, and J. Han. Resolving conflicts
in heterogeneous data by truth discovery and source reliability
estimation. In SIGMOD, pages 1187–1198, 2014.
X. Li, X. L. Dong, K. B. Lyons, W. Meng, and D. Srivastava. Truth
finding on the DeepWeb: Is the problem solved? PVLDB, 6(2), 2013.
X. Li, X. L. Dong, K. B. Lyons, W. Meng, and D. Srivastava. Scaling
up copy detection. In ICDE, 2015.
J. Pasternack and D. Roth. Knowing what to believe (when you
already know something). In COLING, pages 877–885, 2010.
J. Pasternack and D. Roth. Making better informed trust decisions
with generalized fact-finding. In IJCAI, pages 2324–2329, 2011.
J. Pasternack and D. Roth. Latent credibility analysis. In WWW,
2013.
R. Pochampally, A. D. Sarma, X. L. Dong, A. Meliou, and
D. Srivastava. Fusing data with correlations. In Sigmod, 2014.
A. Singh and L. Liu. TrustMe: anonymous management of trust
relationshiops in decentralized P2P systems. In IEEE Intl. Conf. on
Peer-to-Peer Computing, 2003.
M. Wu and A. Marian. Corroborating answers from multiple web
sources. In Proc. of the WebDB Workshop, 2007.

X. Yin, J. Han, and P. S. Yu. Truth discovery with multiple conflicting
information providers on the web. In Proc. of SIGKDD, 2007.
X. Yin and W. Tan. Semi-supervised truth discovery. In WWW, pages
217–226, 2011.
B. Zhao and J. Han. A probabilistic model for estimating real-valued
truth from conflicting sources. In QDB, 2012.
B. Zhao, B. I. P. Rubinstein, J. Gemmell, and J. Han. A Bayesian
approach to discovering truth from conflicting sources for data
integration. PVLDB, 5(6):550–561, 2012

 

Annonser