Password på hjemmeside...

Hej alle.

Vi vil gerne lægge nogle oplysninger op på vores hjemmeside, nogle lidt personfølsomme (navne, adresser, fødselsdage, mailadresser), og vil derfor gerne beskytte dem mod systematisk scan fra f.eks. Google. F.eks. med et password, som kun udleveres til dem, oplysningerne vedrører.

Det er ganske almindelig køkkenbords-HTML på siderne. Vi kan ikke kode asp eller Java.

Det er et subdomæne, der skal sikres.

Nogen, som ved, hvordan man gør?

Lars & Elizabeth, Bente II, Ishøj, XPE3524, MMSI 219015911

Led os ikke i fristelse... vi kan sagtens finde vej selv...

6 svar
 Følg tråden
Annonce
Annonce
Annonce
Tja... Der er den "lette" måde, og den sikre måde.

Den lette måde er at lade være med at linke til siderne, og så skrive i din "robots.txt" fil at robotterne ikke skal cache/scanne de pågældende sider... Det bliver de så bare ikke password beskyttede af, men de bliver i hvert fald heller ikke indexerede af søgemaskinerne.

Hvis du vil have den "sikre" løsning, skal du i stedet ud og lave noget med bruger validering.. Men hvordan du gør det afhænger 100% af hvilken server type du har, og om den er hostet, eller om det er noget der står "hos dig selv".
Twist:

Siden er hosted hos Web10. Har lige været inde og tjekke vores options hos dem, der er ikke umiddelbart noget som ligner det, vi søger.

Men der er ingen links til siderne nogle andre steder - ved dog at Google allerede første dag fandt hoveddomænet, sikkert fordi vi reklamerer for det i vores signatur herinde.

Hvad skal vi angive i "robots.txt" for at undgå indexering?

Lars & Elizabeth, Bente II, Ishøj, XPE3524, MMSI 219015911

Led os ikke i fristelse... vi kan sagtens finde vej selv...

Robots.txt filen skal ligge i RODEN af dit domain, og være læselig, og indeholde MINIMUM to ting:

"User-agent:", det er navnet på søge robotten. Normalt skriver man en * for alle.
"Disallow:" der fortæller robotten hvilken sider den IKKE må besøge. Eks. "/" for alt, "/subdomæne" for at fobyde læsning af alt i "/subdomæne" eller den ene fil "/billeder/aj_hvor_var_jeg_fuld.jpg" eller for websider "/ferie_i_bangkok/mig_og_thaipigerne_i_pat_pong.htm"

Du kan have mere end EN disallow regel, men alle disallow regler gælder for alle roboter. OG: Andre kan også læse din "robots.txt" fil, så hvis nogen virkelig vil forsøge, så kan de jo bare læse din robots.txt fil, og hvis du deri har angivet direkte filnavne... så er det en meget dårlig ide hvis du vil bevare noget hemmeligt.

Et eksempel på en "god" robots.txt fil:

User-agent: *
Disallow: /private-filer
Disallow: /hemmelige-filer
Disallow: /arbejde


Nu kender jeg ikke lige web10 (bruger selv enten dedikerede servere eller hoster hos one.com). MEN.... Hvis du har et unix/linux baseret miljø, så er det nok apache webserver der bruges. Der kan du benytte dig af en teknologi der hedder "htaccess". Den fungerer lidt ligesom robots.txt filen. Men det er istedet SERVEREN der læser filen og vurderer om den skal spørge om et password inden den viser indholdet af siden. Kig evt. her: http://httpd.apache.org/docs/1.3/howto/htaccess.html

Det MEST normale er at de billige providere benytter sig af linux/apache løsningen, da den er billigst i drift og anskaffelse. Men... Der findes jo nok en eller to der stadig kører windows. Det ER muligt at password beskytte sider i microsofts IIS (hvis det er den der er installeret hos din provider), men jeg er rimeligvis sikker på at du skal have en dedikeret server for at det kan lade sig gøre. Men hvis der benyttes apache, så kan du forsøge med htaccess igen.
Twist:

Av det var en ordentlig mundfuld. Men som man spørger, får man svar, og mange tak for det smile

Men vi har lidt på fornemmeren, at robots.txt virker lidt som at sige til et barn, at 'det må du ikke'. Det gør det meget mere spændende rolleyes

Har lige lagt en forespørgsel hos supporten i Web10. Ved ikke om de kører Unix eller Win, mener de har begge dele, og det er vistnok Win, vi har valgt, men vil afvente deres svar.

Men takker for indsatsen so far.

Lars & Elizabeth, Bente II, Ishøj, XPE3524, MMSI 219015911

Led os ikke i fristelse... vi kan sagtens finde vej selv...

Security by obscurity er en dårlig strategi.

Sørg for at vælge deres UNIX hotel, da MIIS er noget HØ og sikkerhed+oppetid ikke er noget der er SÅ meget af
i Windows-verden ;-)

NÅR du så har fået et UNIX webhotel, så vil en hver respektabel ISP have en lille forklaring til hvorledes man benytter en tekstfil kaldet ".htaccess" (punktummet i starten betyder i unix-sprog, at filen er usynlig) eller kan google og .htaccess samt evt. htpasswd (det er så den text fil der indeholder brugernavne og passwords i en "ikke-reversibel" (krypteret) form.

.htaccess filen (med rette indhold) lægges i roden (sammen med en evt. robots.txt)

Der er masser af manual-hjælp at hente hos apaches website, såfremt ISP'en ikke har noget så banalt tilgængeligt…
http://httpd.apache.org/

I teorien er der ikke forskel på teori og praksis, men i praksis er der...
Hej alle.

Tak for de mange svar.

Vi har besluttet os til at vente til efteråret, hvor en af de gamle køkken-rødder fra kollegiet (det er vores interne adresseliste, der skal op på nettet) får sat en server op hvor vi kan kontrollere adgangen direkte.

Så vi lader lige emnet hvile et par måneder.

Men igen mange tak

Lars & Elizabeth, Bente II, Ishøj, XPE3524, MMSI 219015911

Led os ikke i fristelse... vi kan sagtens finde vej selv...

 Følg tråden
Vil du være med? Log ind for at svare.

Tilmeld dig og få fordele



Deltag i forummet, stil spørgsmål og svar andre

Favoritmarkér spændende indlæg

Færre reklamer, når du er logget ind
...og meget mere



Tilmeld dig gratis