Κατάταξη μιας ιστοσελίδας

Οι σχεδιαστές ιστοσελίδων έχουν ως στόχο την ανάδειξη των ιστοσελίδων όσο το δυνατόν ψηλότερα στη λίστα με τα φυσικά αποτελέσματα που επιστρέφονται από μια αναζήτηση. Για τον λόγο αυτό προσπαθούν με διάφορους τρόπους να προσελκύσουν αλλά και να «εξαπατήσουν» τις μηχανές αναζήτησης. Αρχικά η κατηγοριοποίηση των ιστοσελίδων από τις μηχανές αναζήτησης βασιζόταν στο περιεχόμενο και μόνο σε αυτό μιας ιστοσελίδας. Οι σχεδιαστές ιστοσελίδων απλά υπέβαλλαν την ιστοσελίδας στις μηχανές αναζήτησης κι αυτές χρησιμοποιώντας τα ειδικά προγράμματα crawlers, έψαχναν τις ιστοσελίδες, αποθήκευαν την πληροφορία που συνέλεγαν και τις κατηγοριοποιούσαν ανάλογα με το θέμα τους. Οι πρώτες μηχανές αναζήτησης βασίζονταν στα στοιχεία που τους παρείχαν οι σχεδιαστές ιστοσελίδων. Αργότερα όμως και καθώς ο αριθμός των ιστοσελίδων αυξήθηκε με γρήγορους ρυθμούς, οι μηχανές αναζήτησης άρχισαν να χρησιμοποιούν πιο «έξυπνους» αλγόριθμους οι οποίοι βασίζονται σε πληροφορία όπως είναι:





· Κείμενο μέσα στον τίτλο
· Όνομα domain
· Κατάλογοι διεύθυνσης ιστοσελίδων (URL) και ονόματα αρχείων
· HTML tags: κεφαλίδες και κείμενο έντονης γραφής
· Συχνότητα όρων
· Εγγύτητα λέξεων κλειδιών
· Γειτνίαση λέξεων κλειδιών
· Ακολουθία λέξεων κλειδιών
· Κείμενο μέσα σε NOFRAMES tags
· Ιδιότητες εικόνων

Η μηχανή αναζήτησης όμως η οποία πρωτοπόρησε στον τομέα αυτόν είναι η Google η οποία ανέπτυξε έναν αλγόριθμο ο οποίος αξιολογεί μια ιστοσελίδα με βάση τους εισερχόμενους υπερσυνδέσμους σε μια ιστοσελίδα. Ο αλγόριθμος PageRank βασίζεται στην λογική ότι αν μια ιστοσελίδα αναφέρεται σε πολλές άλλες ιστοσελίδες (εισερχόμενοι υπερσυνδέσμοι) τότε έχει και μεγάλη αξία. Οι σχεδιαστές ιστοσελίδων επιθυμώντας την καλή κατάταξη των ιστοσελίδων τους εμπλέκονται σε μια διαδικασία ανταλλαγής υπερσυνδέσμων μεταξύ διαφόρων ιστοσελίδων, έτσι ώστε να αυξήσουν την εισερχόμενη ροή τους από το Google. Καθώς οι μηχανές αναζήτησης και οι σχεδιαστές ιστοσελίδας βρίσκονται σε μια διαρκή «μάχη» για την παροχή από τη μία έγκυρων αποτελεσμάτων και βελτιστοποίηση της κατάταξης των ιστοσελίδων από την άλλη, νέοι, πιο «έξυπνων» αλγορίθμων κατάταξης. Καθώς όλες οι μεγάλες εταιρείες που προσφέρουν την υπηρεσία των μηχανών αναζήτησης δεν αποκαλύπτουν τους αλγόριθμους που χρησιμοποιούν για την βαθμολόγηση των ιστοσελίδων, οι τεχνικές βελτιστοποίησης, SEO, έχουν καταλήξει ότι τέσσερα είναι τα πιο σημαντικά μέτρα για την αξιολόγηση:


1. Λέξεις κλειδιά σε tag κεφαλίδων
2. Λέξεις κλειδιά σε υπερσυνδέσμους προς μια ιστοσελίδα
3. Λέξεις κλειδιά που εμφανίζονται στο κείμενο
4. Δημοτικότητα μιας ιστοσελίδας όπως μετράται από τον αλγόριθμο PageRank της Google

Επιπρόσθετα, μπορεί να υπάρχουν και άλλα μέτρα τα οποία να επηρεάζουντην κατάταξη των ιστοσελίδων.


Οι πρώτες τεχνικές βελτιστοποίησης της κατάταξης μιας ιστοσελίδας για τις μηχανές αναζήτησης έκαναν την εμφάνιση τους το 1997 στο Usenet, λίγα χρόνια μετά από την εμφάνιση των πρώτων μηχανών αναζήτησης. Οι χειριστές των μηχανών αναζήτησης συνειδητοποίησαν ότι οι σχεδιαστές των ιστοσελίδων προσπαθούσαν να επηρεάσουν τα φυσικά αποτελέσματα μιας αναζήτησης, πολλές φορές παραπλανώντας τις μηχανές αναζήτησης και κατά συνέπεια τον τελικό χρήστη. Το 2005 δημιουργήθηκε το AirWeb ετήσιο συνέδριο το οποίο έχει ως θέμα του την ελαχιστοποίηση των επιβλαβών συνεπειών των «επιθετικών» σχεδιαστών ιστοσελίδων.

Διάφορες επιχειρήσεις χρησιμοποιούν «επιθετικές» SEO τεχνικές που έχουν ως συνέπεια την τιμωρία και την απαγόρευση των ιστοσελίδων τους από τις μηχανές αναζήτησης. Πιο συγκεκριμένα, εταιρείες οι οποίες εμπορεύονται SEO τεχνικές σε διάφορες άλλες επιχειρήσεις για να βελτιώσουν την αναγνωρισιμοτητά τους, κάνουν χρήση SEO στρατηγικών αυξημένου ρίσκου που έχουν σαν αποτέλεσμα όχι μόνο να τιμωρηθούν οι εταιρείες που παρέχουν SEO υπηρεσίες αλλά και οι επιχειρήσεις που τις προσέλαβαν. Για παράδειγμα, η Wall Street Journal [3] σε ένα άρθρο της αναφέρει ότι η Google τιμώρησε την Traffic-Power.com και τους πελάτες της, αφαιρώντας τις ιστοσελίδες τους από το ευρετήριο της.


Η Google εφαρμόζει περιορισμούς στις ιστοσελίδες που κατατάσσει ώστε να αποτρέψει τους σχεδιαστές ιστοσελίδων να χρησιμοποιήσουν παραπλανητικές τεχνικές. Για παράδειγμα, απαγορεύει την ύπαρξη κρυμμένου κειμένου, την χρήση ίδιου χρώματος φόντου και προσκηνίου, τιμωρώντας τους παραβάτες με μη κατάταξη των ιστοσελίδων τους. Απεναντίας, άλλες μηχανές αναζήτησης όπως η Yahoo και η MSN εφαρμόζουν πιο ελαστική πολιτική όσον αφορά τις SEO τεχνικές, κερδίζοντας έτσι μεγάλο μερίδιο της αγοράς όσον αφορά τις μηχανές αναζήτησης. Όλες οι μηχανές αναζήτησης παρέχουν στους χρήστες έναν οδηγό με επιτρεπόμενες SEO ενέργειες καθώς και οδηγίες για την αποτελεσματικότερη βελτίωση της κατάταξης των ιστοσελίδων τους. Για παράδειγμα η Google παρέχει έναν οδηγό Sitemap ο οποίος πληροφορεί τους υπεύθυνους των ιστοσελίδων αν η
μηχανή αναζήτησης αντιμετωπίζει πρόβλημα στην κατάταξη της ιστοσελίδας τους καθώς και πληροφορίες που αφορούν την κίνηση που τους παρέχει το Google.

Σε αντίθεση με το παρελθόν, οι νέες ιστοσελίδες δεν πρέπει να υποβληθούν στις μηχανές αναζήτησης για να προσπελαστούν και να κατηγοριοποιηθούν. Παρόλα αυτά οι εταιρείες της Google και της Yahoo προσφέρουν την δυνατότητα δημιουργίας και υποβολής αρχεία τύπου XML για να βοηθήσουν και να επιταχύνουν την κατηγοριοποίηση μιας ιστοσελίδας. Το SiteMap Google προσφέρει την δυνατότητα αυτή κι επιπλέον η Yahoo προσφέρει το SiteExplorer για την υποβολή της διεύθυνσης της ιστοσελίδας μιας επιχείρησης ή ενός χρήστη και πληροφορίες όπως το πλήθος των ιστοσελίδων που βρίσκονται στο ευρετήριο του Yahoo. Γενικά, πιο δημοφιλής μηχανές αναζήτησης απαιτούν χρόνο της τάξης από μερικές μέρες μέχρι βδομάδες για τα προγράμματα τους να ανακαλύψουν μια νέα ιστοσελίδα, να επισκεφτούν όλους τους εσωτερικούς υπερσυνδέσμους τους και να το εισάγουν στο ευρετήριο και να το κατηγοριοποιήσουν. Διαφορετικές μηχανές αναζήτησης χρησιμοποιούν διαφορετικά προγράμματα, crawlers, για να επισκεφτούν έναν δικτυακό χώρο και συνήθως δεν επισκέπτονται όλες τις ιστοσελίδες ενός χώρου. Σε ένα άρθρο του οι Cho et al. [4] περιέγραψαν κάποια πρότυπα για τις αποφάσεις που λαμβάνουν οι crawlers ως το ποιες σελίδες θα περιληφθούν στο ευρετήριο της μηχανής αναζήτησης, Επιπλέον, δίνεται οι δυνατότητα στους σχεδιαστές των ιστοσελίδων να καθοδηγήσουν τα
προγράμματα «αράχνες» ώστε να μην συμπεριλάβουν ορισμένες σελίδες στοευρετηριό τους, μέσω του αρχείου robots.txt στο κεντρικό κατάλογο τους. Ορισμένες επιχειρήσεις κάνουν χρήση της δυνατότητας αυτής ώστε να μην εμφανίζονται στα φυσικά αποτελέσματα ιστοσελίδων με δυναμικό καιπροσανατολισμένο στους ιδιαίτερους χρήστες





1 σχόλιο :