S:E:O Chiedi allo staff.

Posta una domanda allo staff.
Risponderemo nel più breve tempo possibile..
Nota:
Non devi registrarti puoi postare anche anonimo

9 commenti:

  1. Ciao mi chiamo Marco,
    Una domanda per lo staff.cosa sono i robot o crawler?.
    Grazie

    RispondiElimina
  2. Ciao Marco.
    Un crawler (detto anche spider o robot), è un software che analizza i contenuti di una rete (o di un database) in un modo metodico e automatizzato, in genere per conto di un motore di ricerca.
    Un crawler è un tipo di bot (programma o script che automatizza delle operazioni). I crawler solitamente acquisiscono una copia testuale di tutti i documenti visitati e le inseriscono in un indice.
    Un uso estremamente comune dei crawler è nel Web. Sul Web, il crawler si basa su una lista di URL da visitare fornita dal motore di ricerca (il quale, inizialmente, si basa sugli indirizzi suggeriti dagli utenti o su una lista precompilata dai programmatori stessi). Durante l'analisi di un URL, identifica tutti gli hyperlink presenti nel documento e li aggiunge alla lista di URL da visitare. Il processo può essere concluso manualmente o dopo che un determinato numero di collegamenti è stato seguito.
    Inoltre i crawler attivi su Internet hanno la facoltà di essere indirizzati da quanto indicato nel file "robots.txt" posto nella root del sito. All'interno di questo file, è possibile indicare quali pagine non dovrebbero essere analizzate. Il crawler ha la facoltà di seguire i consigli, ma non l'obbligo.


    Ecco di seguito una tabella con i nomi degli spider dei principali motori di ricerca

    Nome spider Motore di ricerca
    googlebot Google
    fast Fast - Alltheweb
    slurp Inktomi - Yahoo!
    scooter Altavista
    mercator Altavista
    Ask Jeeves Ask Jeeves
    teoma_agent Teoma
    ia_archiver Alexa - Internet Archive
    Yahoo! Slurp Yahoo
    Romilda Facebook
    BBragnet 2scimmie.it

    RispondiElimina
  3. Cosa sono i meta tag.
    Marco

    RispondiElimina
  4. I Meta tags sono dei comandi HTML che vengono inseriti all'interno delle pagine di un sito per fornire maggiori informazioni riguardanti il contenuto della pagina stessa. Questi tag sono invisibili ai navigatori, ma vengono letti e tenuti in considerazione dai motori di ricerca e dai browser.

    Tra i meta tags più importanti ci sono quelli per la definizione del titolo della pagina, delle keywords e della descrizione e sono quelli che devono preparati nel migliore dei modi (Ottimizzazione meta tags)

    L'obiettivo è quello di creare un titolo e una descrizione accattivante ma allo stesso tempo che comprenda le keywords più importanti.

    Il titolo della pagina.
    La scelta del titolo è certamente un passo fondamentale per determinare il successo di una pagina web, il titolo è infatti la prima cosa che viene visualizzata nel risultato di un ricerca su un motore. Di norma non deve avere più di 60/70 caratteri, è però un valore puramente indicativo che varia da motore a motore.

    E' quindi facilmente intuibile che se non inseriamo questo tag nella nostra pagina, nel motore di ricerca verrà visualizzato uno spazio bianco o una scritta del tipo "undefined", "untitled", o altro e l'utente non capirà il contenuto della nostra pagina e ne resterà indifferente.

    RispondiElimina
  5. Ciao,Cos'e il s.e.o perchè e così importante?.
    Annalisa

    RispondiElimina
  6. Ciao Annalisa..

    La promozione dei siti web all’interno dei motori di ricerca è un’attività fondamentale, soprattutto per le aziende, per le quali il sito internet rappresenta non solo un punto di contatto, ma soprattutto un’importante fonte di business.


    Come si può immaginare, e come ho avuto ampiamente modo di constatare nella mia, se pur breve esperienza, (Di Web Marketing ), la grandissima maggioranza degli accessi all’interno di un sito web proviene dai motori di ricerca. Non solo visite,

    L’attività di posizionamento SEO (Search Engine Optimization) non è una sorta di “segreto” informatico, né tantomeno un qualcosa ottenibile con tecniche puramente meccaniche o di spam (Google penalizza immediatamente i tentativi di posizionamento di questa tipologia).

    Si tratta bensì di una disciplina che richiede un lavoro costante su più fronti (ottimizzazione del sito web, revisione dei codici, realizzazione di testi mirati al posizionamento, promozione del sito con comunicati stampa, scambi di link strategici, ecc.) ed ovviamente una conoscenza specifica delle tecniche di SEO. Essere un ottimo tecnico informatico ha ben poco a che vedere con il posizionamento nei motori.
    Nel linguaggio comune, il termine “posizionamento” è spesso confuso con il significato del termine “indicizzazione”, ovvero il processo attraverso cui il sito è semplicemente inserito all’interno del motore, un’attività che nella maggioranza dei casi avviene in automatico. Con posizionamento, invece, si intende far “rispondere” ai primi posti del motore il sito in questione a seguito di determinate ricerche, con precise parole chiave che riguardano i prodotti ed i servizi che offre l’azienda. Inserire su Google l’esatto nome dell’azienda e vedere come prima proposta del motore il suo sito non significa assolutamente che il sito sia posizionato!

    Il costo di un’attività di SEO, inoltre, dipende da diversi fattori: concorrenza nel settore, necessità di ristrutturazioni all’interno del sito web, livello geografico su cui ci si intende posizionare (è possibile posizionarsi con keywords di interesse a livello locale, regionale, nazionale, o anche mondiale), proprio per questo, nessuna SEO agency seria potrebbe azzardare un prezzo senza prima studiare un preventivo ad hoc.

    Il servizio di posizionamento ai vertici di Google e di altri motori di ricerca è garanzia assoluta di aumento del business, ed il costante e preciso monitoraggio del sito che può garantire una web agency è garanzia di ottimi risultati anche con investimenti minimi.

    Spero di esserti stato utile..

    RispondiElimina
  7. ciao,
    voglio precisare che non sono un webmaster
    sono solo appassionato di web,
    da un po di tempo si sente spesso parlare delle Api di google ebay ecc..
    Cosa sono le API e qual'è l'mportanza delle api per un webmaste o sviluppatore.
    "Andrea"

    RispondiElimina
  8. Ciao.
    Andrea
    LE API (Application Programming Interface)

    Come parzialmente intuibile dai termini che compongono l’acronimo, le API rappresentano un’interfaccia di programmazione, resta da comprendere a cosa e utilizzabile da chi.

    Un esempio di interfaccia a del.icio.us

    Prendiamo l’esempio di un servizio che molti utenti conoscono ed utilizzano: del.icio.us. del.icio.us è basato su un database che ha lo scopo di salvare tutti i preferiti degli utenti. Ogni utente può, attraverso l’interfaccia di del.icio.us, inserire preferiti, aggiungere tag, modificare i propri dettagli ed eseguire azioni.

    Ma se l’utente non volesse usare l’interfaccia di del.icio.us? Questo è il concetto chiave. Ad esempio il browser Mozilla Firefox dispone di due estensioni che permettono di interagire agevolmente con del.icio.us usando… le API.

    Riassumento il concetto espresso con questo esempio, possiamo estremizzare che le API rappresentano un’interfaccia aperta di un software, ovvero una particolare interfaccia che librerie, software o piattaforme possono usare per interagire con un programma.
    A cosa servono le API

    Le API permettono di espandere le funzionalità di un programma. Per uno sviluppatore mettere a disposizione un set di API di un suo software significa dare la possibilità ad altri di interagire con la sua piattaforma e, soprattutto, estendere le funzioni e le caratteristiche della struttura base della piattaforma. In altri termini, le API sono un ottimo strumento per promuovere un programma offrendo ad altri un modo per interagirci.

    Ad esempio, le API di del.icio.us consentono agli utenti di gestire i propri preferiti senza connettersi al sito centrale
    Spero che questo post abbia in qualche modo chiarito leggermente il significato e l’utilità delle API.

    RispondiElimina
  9. Buone pratiche per l'ottimizzazione delle pagine

    Per quanto riguarda la struttura HTML, è buona norma:
    Inserire i contenuti importanti all'inizio del codice HTML;
    Usare I tag HTML il più possibile attinenti alla struttura dei contenuti presentati (semantico) e verificare sempre che il codice delle pagine sia formalmente valido[1]. Può essere utile confrontarsi con le specifiche WCAG[2] per rendere i contenuti meglio "accessibili" anche per i crawler;
    Differenziare opportunamente i titoli delle varie pagine di un sito, renderli chiari e coerenti con il contenuto della pagina: dovrebbero contenere le parole chiave di maggior peso;
    Evitare di inviare informazioni incontrollate o inutili (potenzialmente dannose) tramite tag -meta: i browser le ignorano, i crawler no[3];
    Evitare l'utilizzo di JavaScript per gestire la navigazione, perché il crawler non interpreta gli script e non seguirà questi collegamenti. Usare invece collegamenti standard inserendo tag a con l'attributo href. I browser delle ultime generazioni non avranno problemi a gestire link contenenti sia un indirizzo in href che una chiamata a JavaScript in un gestore di evento onClick: se quest'ultima è ritenuta indispensabile, è possibile inserirla ed essa verrà eseguita prima del collegamento vero e proprio[senza fonte]. È importante ricordarsi di inserire comunque anche il collegamento tramite l'attributo href, a beneficio di browser non standard, browser accessibili, e crawler.
    Riguardo alla gestione del server e degli URL, invece, è opportuno:
    Possibilmente, scegliere anche l'URL della pagina in modo che contenga le parole chiave più probabili, ovvero che sia descrittivo e possibilmente somigliante al titolo della pagina stessa;
    Evitare se possibile l'invio di parametri per un'eventuale applicazione lato server tramite l'inserimento di un'interrogazione (query) nell'URL della pagina, ossia la presenza di coppie parametro=valore dopo un punto di domanda, dopo l'indirizzo della pagina (http://www.sito.it/percorso/pagina?parametri=valori). Alcuni motori di ricerca scaricheranno e indicizzeranno solo la pagina base, senza tener conto della query;
    inoltre, se l'interrogazione contiene informazioni specifiche sulla sessione (per esempio Session ID, che cambiano per ogni visitatore) nemmeno Google ottiene un URL univoco per la pagina, e può trarne le più disparate conclusioni negative. Per questo tipo di informazioni è opportuno usare i cookie[4];
    Evitare l'utilizzo di redirect non HTTP (attraverso tag meta http-equiv="refresh ), perché non è detto che il motore di ricerca li segua. È anche diffusa l'idea che la loro presenza possa penalizzare il ranking di una pagina[5]. Attuare invece ogni redirezione con una risposta HTTP di reindirizzamento (codici 3xx);
    inoltre, ogni redirezione effettuata tramite tag meta http-equiv="refresh è contraria ai checkpoint 7.4 e 7.5 delle WCAG 1.0[2];
    Evitare assolutamente di servire contenuti differenziati ai crawler (Cloaking) tentando di riconoscerne la stringa di User agent o l'IP del bot che scansiona le nostre pagine. È una pratica dannosa che espone al rischio concreto di cancellazione dagli indici dei motori;
    Implementare i file robots.txt e sitemap.xml per indicare ai crawler dei motori di ricerca quali contenuti indicizzare e quali escludere dal processo di indicizzazione.

    RispondiElimina