Il Selvaggio — Note dalla Redazione
Il Selvaggio — Note dalla Redazione
Operazione Visibilità:
come abbiamo battuto gli algoritmi di Google
Un resoconto tecnico delle strategie legittime e non manipolative che hanno restituito al sito la propria presenza nell’indice di ricerca, nonostante le resistenze algoritmiche.
Nei mesi scorsi il sito ilselvaggio.it ha affrontato una sfida tipica di molte realtà editoriali indipendenti: essere presente sul web non basta — occorre essere visibili agli occhi delle macchine che decidono cosa mostrare agli utenti. Questa è la cronaca tecnica di come abbiamo risolto il problema, passo dopo passo, senza ricorrere ad alcuna pratica fraudolenta né a strumenti a pagamento.
Il problema di partenza: perché Google «resisteva»
I motori di ricerca — e Google in particolare — non si limitano a fotografare il web: lo interpretano. Gli algoritmi di indicizzazione valutano migliaia di segnali prima di decidere se una pagina merita di comparire nei risultati. Tra questi segnali, alcuni riguardano la struttura tecnica del sito, altri il contenuto, altri ancora i cosiddetti segnali di autorevolezza (link in entrata, età del dominio, storico di indicizzazione).
Nel nostro caso, la pagina che da sempre funge da home page del sito — quella con i contenuti editoriali più identitari — risultava penalizzata o semplicemente ignorata dai crawler. Il motivo tecnico principale era la mancanza di una URL canonica dichiarata e la presenza di segnali ambigui che impedivano a Googlebot di stabilire con certezza quale fosse la versione autorevole del dominio.
La distinzione fondamentale: crawling vs. indicizzazione
Prima di procedere, è utile chiarire la differenza tra due fasi distinte e spesso confuse:
- Crawling: il robot di Google (Googlebot) visita fisicamente la pagina e ne legge il codice HTML.
- Indicizzazione: Google analizza il contenuto trovato e decide se inserire quella pagina nel proprio indice, rendendola idonea a comparire nei risultati di ricerca.
Una pagina può essere scansionata (crawled) senza essere indicizzata. È questa seconda fase quella critica, e su di essa si è concentrato il nostro intervento.
Fase 1 — La pagina statica «ponte»
La prima mossa è stata costruire una pagina HTML completamente statica, ospitata sulla radice del dominio con il prefisso
www, dai contenuti istituzionali e privi di qualsiasi elemento editorialmente divisivo.
Lo scopo era univoco: ottenere da Google il riconoscimento di www.ilselvaggio.it come
versione canonica del dominio.
Perché il prefisso www e non la versione nuda (ilselvaggio.it)?
Google tratta www.ilselvaggio.it e ilselvaggio.it come due entità distinte
fino a quando non viene dichiarata esplicitamente la relazione tra loro. La versione con www
è storicamente considerata più stabile da alcuni algoritmi, e su di essa abbiamo concentrato
tutti i segnali canonici.
Il tag canonical: la dichiarazione di identità
All’interno della sezione <head> della pagina statica abbiamo inserito il tag
rel="canonical", che comunica a Googlebot quale sia l’URL ufficiale e definitiva
della risorsa, eliminando ogni ambiguità:
<!-- Dichiarazione canonica: dice a Google qual è la versione ufficiale --> <link rel="canonical" href="https://www.ilselvaggio.it/" /> <!-- Open Graph per la corretta anteprima sui social --> <meta property="og:url" content="https://www.ilselvaggio.it/" />
Dati strutturati Schema.org: parlare la lingua delle macchine
Abbiamo corredato la pagina con un blocco di dati strutturati in formato JSON-LD, lo standard Schema.org raccomandato da Google stesso. Si tratta di metadati leggibili esclusivamente dai crawler (invisibili all’utente), che descrivono formalmente l’identità dell’organizzazione e del sito:
<script type="application/ld+json"> { "@context": "https://schema.org", "@type": "Organization", "name": "Il Selvaggio", "url": "https://www.ilselvaggio.it/", "sameAs": [ "https://ilselvaggio.it/" ] } </script>
⚙ Nota tecnica
Il campo "sameAs" è particolarmente importante: permette a Google di collegare
la versione con www e quella senza, consolidando l’autorità in un’unica entità
anziché disperderla su due URL distinte.
Il file robots.txt: istruzioni esplicite per i crawler
Abbiamo verificato e ottimizzato il file robots.txt posizionato alla radice del dominio.
Questo file è una sorta di regolamento interno che il sito espone ai robot di tutti i motori di ricerca:
# robots.txt — www.ilselvaggio.it User-agent: * Allow: / User-agent: Googlebot Allow: / Sitemap: https://www.ilselvaggio.it/sitemap.xml
La sitemap XML: la mappa del sito consegnata direttamente a Google
Una sitemap è un file XML che elenca tutte le pagine del sito che vogliamo far indicizzare, con la data dell’ultimo aggiornamento e la priorità relativa:
<?xml version="1.0" encoding="UTF-8"?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>https://www.ilselvaggio.it/</loc> <lastmod>2026-03-15</lastmod> <priority>1.0</priority> </url> </urlset>
Fase 2 — I segnali tecnici on-page per i crawler
Una volta costruita la pagina ponte, abbiamo lavorato su tutti i segnali tecnici che influenzano la valutazione di Googlebot. Questi elementi sono invisibili all’occhio umano ma determinanti per l’algoritmo.
Meta tag fondamentali nel <head>
<!-- Titolo: max 60 caratteri, parola chiave a sinistra --> <title>Il Selvaggio — Periodico di cultura e critica</title> <!-- Descrizione: max 155 caratteri --> <meta name="description" content="Rivista di cultura, storia e critica della modernità. Fondata nel segno di Mino Maccari." /> <!-- Lingua del documento --> <meta http-equiv="Content-Language" content="it" /> <!-- Direttive di indicizzazione esplicite --> <meta name="robots" content="index, follow, max-snippet:-1, max-image-preview:large" /> <!-- Istruzione specifica per Googlebot --> <meta name="googlebot" content="index, follow" /> <!-- hreflang: chiarezza sulla lingua --> <link rel="alternate" hreflang="it" href="https://www.ilselvaggio.it/" />
Performance e Core Web Vitals
Dal 2021 Google utilizza i Core Web Vitals come fattore di ranking diretto. La pagina statica è stata ottimizzata per eccellere in tutte e tre le metriche principali:
| Metrica | Descrizione | Soglia ottimale | Risultato |
|---|---|---|---|
| LCP | Largest Contentful Paint — tempo caricamento elemento principale | < 2,5s | ~0,9s |
| INP | Interaction to Next Paint — reattività alle interazioni | < 200ms | < 50ms |
| CLS | Cumulative Layout Shift — stabilità visiva del layout | < 0,1 | 0,00 |
Fase 3 — Il redirect 301: il passaggio di consegne
Una volta verificato che Google aveva indicizzato con successo la pagina ponte e riconosciuto
www.ilselvaggio.it come dominio autorevole, è scattata la fase conclusiva:
il reindirizzamento permanente 301 verso la home page editoriale.
Un redirect 301 è, nella terminologia HTTP, una risposta del server che dichiara: «Questo contenuto si è spostato permanentemente a quest’altro indirizzo. Trasferisci lì tutta l’autorità che hai attribuito a questa URL.»
Confronto tra i tipi di redirect HTTP
| Codice | Tipo | Trasferisce autorità SEO? | Quando usarlo |
|---|---|---|---|
| 301 | Moved Permanently | Sì (~99%) | Spostamento definitivo — il nostro caso |
| 302 | Found (temporaneo) | No | Redirect provvisori, test A/B |
| 307 | Temporary Redirect | No | Come il 302 ma preserva il metodo HTTP |
| 308 | Permanent Redirect | Sì | Alternativa moderna al 301 |
Implementazione lato server (.htaccess su Apache)
# Redirect permanente dalla pagina ponte alla home editoriale RewriteEngine On # Forza HTTPS RewriteCond %{HTTPS} off RewriteRule ^(.*)$ https://%{HTTP_HOST}%{REQUEST_URI} [L,R=301] # Forza www (consolida l'autorità sul dominio canonico) RewriteCond %{HTTP_HOST} !^www\. [NC] RewriteRule ^(.*)$ https://www.%{HTTP_HOST}%{REQUEST_URI} [L,R=301] # Redirect verso la destinazione finale RewriteRule ^$ https://www.ilselvaggio.it/p/home.html [L,R=301]
Alternativa via meta refresh (per ambienti senza accesso al server)
<!-- Usato in assenza di .htaccess, ad es. su Blogger --> <meta http-equiv="refresh" content="0; url=https://www.ilselvaggio.it/p/home.html" />
⚠ Attenzione
Il meta refresh con delay 0 viene generalmente interpretato da Google come redirect permanente
e passa l’autorità SEO. Delay superiori a 0 possono invece essere trattati come redirect temporanei
e non trasferire l’equity di indicizzazione.
Fase 4 — Verifica con Google Search Console
Ogni intervento tecnico deve essere verificato. Lo strumento ufficiale e gratuito di Google per monitorare lo stato di indicizzazione è la Search Console (search.google.com/search-console).
Le operazioni eseguite
- Verifica della proprietà del dominio tramite record DNS TXT
- Invio manuale della sitemap XML
- Richiesta di indicizzazione esplicita tramite lo strumento «Controllo URL»
- Monitoraggio del report «Indicizzazione pagine» fino alla transizione da «scansionata, non indicizzata» a «indicizzata»
- Verifica del corretto riconoscimento dell’URL canonica da parte di Google
Il test finale: il comando site:
Il metodo più immediato per verificare l’avvenuta indicizzazione è digitare nella barra di ricerca:
site:ilselvaggio.it
Quando Google restituisce risultati contrassegnati come «indicizzazione organica», significa che le pagine sono presenti nell’indice come risultati naturali e non a pagamento, guadagnati esclusivamente attraverso la qualità dei segnali tecnici e dei contenuti. È la conferma che l’operazione ha avuto successo.
Riepilogo: il filo logico dell’operazione
- Analisi del problema: identificazione della pagina non indicizzata e dei motivi tecnici ostativi.
- Costruzione della pagina ponte: HTML statico, contenuto neutro, segnali canonici ineccepibili.
- Ottimizzazione on-page: meta tag, dati strutturati JSON-LD, hreflang, robots.txt, sitemap.
- Performance tecnica: ottimizzazione Core Web Vitals (LCP, INP, CLS).
- Invio a Search Console: sitemap + richiesta indicizzazione manuale.
- Attesa e verifica: monitoraggio fino alla conferma di indicizzazione della pagina ponte.
- Redirect 301: reindirizzamento permanente verso la home page editoriale, con trasferimento integrale dell’autorità acquisita.
- Verifica finale: controllo con
site:e Search Console.
Nessuna delle tecniche descritte viola le Google Search Essentials (le linee guida ufficiali per i webmaster). Ogni intervento sfrutta strumenti e standard aperti, documentati e raccomandati da Google stesso. La differenza rispetto a pratiche manipolative sta nel fatto che non abbiamo mai fornito contenuti diversi agli utenti rispetto ai crawler (cloaking): la pagina ponte era pubblica e accessibile a chiunque, e il redirect è visibile e permanente.
Redazione Tecnica
Il Selvaggio — ilselvaggio.it
Commenti
Posta un commento