Spara lösenord säkert med hash+salt

Det har varit väldigt mycket liv kring hur man ska spara lösenord den senaste tiden. Det är knappast någon som missat att Bloggtoppen blev hackat och att Aftonbladet lyfte fram detta som enorm händelse. Eftersom detta är högst aktuellt även om jag borde skrivit detta i förra veckan så tänkte jag passa på att gå in på säkerheten och hur du på bästa sätt kan spara användares lösenord i databasen. Mitt exempel kommer varit skrivet i PHP men samma princip gäller för vilket program/script-språk som helst.

Innan jag går in på min lösning så tänkte jag gå igenom säkerhetsproblemen som uppstår och varför de är dåliga. Jag är absolut ingen säkerhetsexpert på ämnet men jag känner ändå att jag har relativt bra koll på läget och en bra lösning på säkerhetsproblemen. Kanske läser någon med bra säkerhetskunskaper detta och kan ge feedback på min lösning

Säkerhetsproblemet med Bloggtoppen

Problemet med Bloggtoppen och hur de bevarade lösenorden var att de endast körde en s.k. MD5 hash på lösenorden och utan att använda sig av någon salt för att försvåra framtagandet av lösenorden. MD5 är en kryptografisk hashfunktion som är framtagen 1991 av Ronald Rivest. Den skapar en 128bit hashsträng av en valfri sträng och den gör det också väldigt snabbt. Och snabbt är i detta fallemer på ont än på gott.

Bloggtoppen använder sig av ett topplist-script vid namn evoTopsites om jag inte är helt ute och cyklar. Ett script som inte längre uppdateras eller har en officiell hemsida. Det är gammalt och likt många gamla script så använder det endast en md5-hash för att lagra lösenorden. Idag är en md5-hash utan salt knappt bättre än att lagra lösenorden i klartext. Kombinerat med ett bra salt-värde så är det helt okej även om det finns bättre lösningar.

Eftersom MD5 är så snabbt och eftersom det använts av så många gamla script så finns det idag extremt stora rainbow tables för md5-hashes. Detta gör att många lösenord sparade med MD5-hash knäcks direkt om de kommer ut i orätta händer just för att man på förhand redan skapat miljontals md5-hashar att jämföra lösenorden mot.

Rainbow tables och Brute force

Rainbow tables är tabeller som innehåller färdiga hash-värden. Exempelvis skulle man kunna gå igenom alla tänkbara kombinationer av lösenord upp till 10 tecken och spara alla dessa hash-värden i en databas. När man sedan får tag i en MD5-hash så kör man den mot databasen för att se om man hittar samma hash. Om lösenordets längd tillsammans med saltets längd inte är över 10 tecken så kommer den att få en träff i databasen och ditt lösenord knäcktes på bara några minuter. Om webbplatsen inte använt sig av salt för att göra lösenorden längre så spelar det ingen roll vilka tecken du kombinerat om ditt lösenord är 10 tecken eller mindre. Det är därför viktigt att ha ett unikt salt värde att förlänga lösenorden med så att rainbow tables inte fungerar.

Brute force innebär att man skickar påhittade lösenord tills man knäcker lösenordet. Detta kan man göra genom att skicka inloggningsförfrågningar direkt mot hemsidan. Om inte webbplatsen kontrollerar antalet felaktiga inloggningar och blockerar för många felaktiga försök så spelar det ingen roll hur bra säkerheten är i övrigt. Då hänger det helt och hållet på hur bra lösenordet är. Men eftersom du som webbplatsägare har säkerheten i fokus så ser du till så att det inte är möjligt för den som attackerar att kunna göra så många felaktiga inloggningar utan att låsas ute.

För att lyckas köra en brute force attack där det inte går att göra för många felaktiga inloggningar på rad så krävs det att man har tillgång till hashen av lösenordet och funktionen som generar hashen. Men då krävs det att man får tillgång till både databasinformation och programkod. I ett sådant scenario finns några säkerhetsåtgärder du kan göra på förhand. Dels kan du tvinga användarna att ha ett svårt lösenord att gissa sig till vilket gör att själva brute force-metoden tar lång tid. Det andra är att se till det tar tid att generera hashen vilket förlänger brute force-attacken ytterligare.

Min hash-funktion för lösenord med PHP

Jag vill börja med att säga att jag använder inte exakt samma funktion och om du vill använda min funktion så rekommenderar jag att du ändrar lite på den så att den blir unik för dig.

Mitt mål med hash-funktionen var följande:

  • Använda en hash-algoritm som är bättre än MD5.
  • Inparametrar för lösenord och salt.
  • Skapa ett unikt saltvärde baserat på en del av lösenordet och det inmatade saltvärdet.
  • Göra funktionen långsammare för att försvåra brute force attacker.
  • Tvinga fram en minimumlängd som den slutgiltiga hashen baseras på.
  • Påtvinga att specialtecken används i den slutgiltiga hashen.

Jag tycker jag har lyckats väldigt bra och jag hoppas inte jag missat något uppenbart som gör den värdelös. Som hash-algoritm använder jag mig whirlpool som standard. Whirlpool genererar en 512bit hash-sträng och har ännu ingen känd brist vad jag kunnat hitta. Om man vill kan man använda sig av någon annan algoritm så som SHA-512 eller SHA-256. Jag har gjort det enkelt genom att ta med en inparameter för detta.

För att göra funktionen långsammare så generar jag en salt-sträng med hjälp av det inmatade saltvärdet + de tre sista tecknen i lösenordet (om lösenordet är mindre än tre tecken används en förbestämd sträng vilket aldrig ska ske ändå.). Dessa ingår i en loop som körs 500 gånger i exemplet för att ta fram en sträng som används som salt. Tanken här är att göra funktionen långsammare och som bonus skapar jag ett dynamiskt saltvärde som baseras på lösenordet som ingen mer än användaren känner till. Räknat lågt på 50 olika tänkbara tecken så ger det 125 000 (50³) möjliga saltvärden. Om någon mot förmodan skulle få tillgång till både källkod och hashsträngarna för lösenorden, och försöka köra en brute-force så tvingar jag dem att köra loopen som gör hash-funktionen långsammare. Alternativt får de prova varje lösenord med 125 000 olika salter vilket också gör det mycket långsammare. Oavsett har jag försvårat för dem.

Jag avslutar sedan funktionen genom att dela på det genererade saltet och lösenordet så att jag får totalt 4 olika strängar. Jag hashar sedan de delade lösenorden med det delade saltet och kombinerar sedan ihop alla strängarna + det inmatade saltet och ett par specialtecken som jag hårdkodat i funktionen för att generera den slutgiltiga hash-strängen med whirlpool.

Genom att ändra antal, hash-algoritm, antal loopar och hur de kombineras ihop så kan du skapa en egen unik funktion baserat på min kod.

<?php
/**
* Function to generate a unique hash-tag with whirlpool 512bit (128char long) as standard algorithm.
* Looping through 500 hashes with whirlpool (std) to slow down the process and get a unique salt value.
*/
function password_hash($password, $salt, $algo='whirlpool') {
// Generate a unique salt string to slow down the process
$new_salt = $salt;
for($i=0;$i<500;$i++)
$new_salt = hash($algo, ($salt.((strlen($password)>3)?substr($password,-3,3):'U9#').$new_salt));

// Use the first 30 characters as two different salts
$first_salt = substr($new_salt,0,20);
$second_salt = substr($new_salt,20,10);

// Split the password into two parts
$password_parts = str_split($password, (strlen($password)/2)+1);

// Generate hashes of the split passwords
$password_parts[0] = hash($algo, $first_salt.$password_parts[0]);
$password_parts[1] = hash($algo, $second_salt.$password_parts[1]);

// Create the password hash to use
$hashcode = hash($algo, $salt.'#'.$first_salt.$password_parts[0].$second_salt.'&s!'.$password_parts[1]);

return $hashcode;
}
?>

Hur säker är min hash-funktion?

Jag skulle vilja tro att min hash-funktion är väldigt säker, men jag hade gärna fått det bekräftat av en säkerhetsexpert. Eventuellt skulle man kanske använda mer än 3 tecken för att skapa fler tänkbara salt-alternativ. Oavsett vilken metod du använder dig av för att hasha lösenord så måste du ställa krav på användaren. Du kan inte låta dina användare använda lösenord som ”hej” exempelvis. Det skulle inte ta många sekunder att knäcka med brute force trots att jag gjort funktionen nästan 500 gånger långsammare.

På min utvecklingsserver tar det ca 0.00001 sekunder att generera en hashsträng med whirlpool. Min funktion exekveras på ca 0.0059 sekunder och istället för att kunna skapa 100,000 hashsträngar per sekund så kan man ”endast” skapa ungefär 168st per sekund med min funktion. Men då får man ha i åtanke att tiderna avser PHP-script och inte ett program skrivet i C. Processorn är också några år gammal och en modernare processor gör det mycket snabbare än så. Men den mest väsentliga skillnaden är att man kan använda sig av grafikkortens GPU då de är mångdubbelt snabbare än processorn på detta. Så med bra utrustning så är det betydligt fler än 168st per sekund.

För skoj skull kan vi räkna med att man genererar hash-strängar 100 gånger snabbare än min utvecklingsserver. Räknat på mitt tidigare exempel om att det endast finns 50 unika olika tänkbara tecken att använda sig av så skulle det se ut enligt följande tabell:

Lösenordslängd Maximal tid för brute force
4 tecken 6min 12sec
5 tecken 5h 10min
6 tecken 10d 18h
7 tecken 1y 173d
8 tecken 73y 266d

Någonting mindre än 7 tecken känner jag direkt är olämpligt. Men eftersom datorkraften hela tiden blir bättre hade jag nog krävt 8 tecken med variation av olika tecken för att kunna skydda användarnas lösenord så gott som möjligt. Men hur långt får man egentligen gå och när börjar det bli en viktig fråga om användarvänlighet?

Sommarkampanjer farligt för Publishers

Detta är något som drabbat mig under sommaren och något som svider lite i ögonen när man jämför ersättningarna under sommaren mot exempelvis i våras. Generellt sätt tycker jag att sommarkampanjer är bra och ger en bra deal till konsumenter och slagkraftigt argument för publishers att tjäna extra pengar. Men detta gäller bara om ersättningsnivåerna är fasta och inte procentbaserade på försäljningsbeloppet.

I mitt fall gäller det nischen webbhotell. Detta är en bransch där man har råd att i princip ge ut webbhotell gratis i ren marknadsföring för att sedan tjäna pengar på dem åren därpå. Men i många fall så får man som publishers endast betalt för nya kunder, och inte för befintliga kunder som köper samma produkt igen eller förnyar sin produkt (i detta fallet webbhotell).

Problemet för mig som publisher kommer när de två svenska ”giganterna” Binero och Citynetwork lanserar sina sommarkampanjer på 5kr/mån respektive 10kr/mån. Båda webbhotellen har en procentuell ersättningsnivå på 50% respektive 100%. Ett års webbhotell med Binero kostar alltså 60kr och ger mig 30kr i provision. För CityNetowrk är det något bättre där ett webbhotell kostar 120kr och ger med 100% såklart 120kr i ersättning. För att jag som publisher ska komma upp i samma eller bättre ersättning måste jag sälja mångdubbelt mer under deras kampanjer. Och i Bineros fall är det bara skrattretande dåligt med 30kr i ersättning.

Provisionen hos City Network är ändå snarlik till de billigaste webbhotellen, så det får väl ses som okej även om jag skulle haft mycket högre intäkter om de inte haft sin sommarkampanj. Men i Binero fall så ger jag dem en helt ny kund men efter skatt räcker inte ersättning ens till en Diamstrut på stranden. Vill man förnedra sina publishers så är detta rätt väg att gå…

Vad borde de göra istället?

Det finns rättvisa provisionsmodeller som fungerar bra.

  1. Den ena modellen är tyvärr ingenting som jag tror de svenska affiliatenätverken har stöd för, men det är en återkommande ersättning för alla framtida fakturor som den kunden får. Detta är rättvist ur flera perspektiv för att jag som publisher vill skicka så bra kunder som möjligt och som har i avsikt att stanna där länge, och på så sett ge en återkommande ersättning varje år. Webbhotellen Wopsa och Oderland kör detta med 10% respektive 20% på alla framtida fakturor för kunden man genererat. Det ger inga snabba pengar men det är bättre ur ett långt perspektiv.
  2. Det andra är att köra fasta ersättningsmodeller som inte är procentbaserade, i alla fall under deras sommarkampanjer. Webbhotellen går redan i förlust på att sälja ut webbhotell så billigt, men de räknar starkt med att många av de kunder som de får stannar även när nästa faktura skickas ut. Något som borde finnas i åtanke när provisionsmodellen för publishers ritas upp.

Mitt tips till andra Publishers

I många fall kan en procentuell ersättningsnivå vara lockande. Ett högt ordervärde ger en bra provision och det är något man kan utnyttja till att få en högre ersättning än vad man annars skulle fått. Men ha i åtanke att du skulle kunna springa på samma problem som jag fått. Även om webbhotellen är extrema i detta avseende och att exempelvis ett resebolag skulle ge bort resor helt gratis är knappast troligt. Men när det kommer till ”virtuella produkter” så är det en risk man får leva med som publisher.

Om provisionsmodellen däremot inte hade varit procentuell utan en fast ersättning så hade du blivit informerad av affiliatenätverket om detta ändrades. Men om priset på en produkt ändras, är det inte alls säkert att du blir…

Bloggen vaknar ur koma?

Det är snart exakt tio månader sedan jag publicerade någonting på bloggen och det var inte riktigt ett sådant uppehåll som jag hade tänkt mig. Jag ska försöka att upprätthålla mitt tidigare mål med minst en publicering per månad – och det bör knappast vara något problem. Det kanske under perioder kan bli betydligt mer än så.

Vad har hänt sen dess?

Sedan Oktober 2010 fram tills nu har jag fokuserat nästan all min tid i nischen resor. Jag har idag en handfull seriösa projekt som jag kommer fortsätta att jobba mycket med, dessutom är det inte omöjligt att de blir fler. Jag har också byggt upp ett bloggnätverk för detta, något som visats sig vara väl värt investeringen. Bloggnätverket har endast seriösa artiklar publicerade av svenska skribenter och resulterar i både trafik och bättre placeringar i sökmotorerna. Dessutom förväntar jag mig att det kommer bli bättre över tid.

Jag har inte tidigare haft speciellt många projekt som kräver mycket underhåll och det har verkligen underlättat arbetet. Sidor som sköter sig själv och generar en stadig inkomst har jag länge jobbat för, men börjar ändra uppfattning om det verkligen är det jag vill ha. Det är sällan projekt som man kan vara stolt över och visa upp…

Vad händer framöver?

Den största delen av tiden i höst kommer att ägnas åt mina resesidor, det är det ingen tvekan om. Men de kommer få lämna lite plats åt et par andra projekt.

Webbplats om Tandblekning blir intressant läsning?

Jag ska öppna en webbplats om tandblekning, och det är någonting som jag verkligen hoppas resulterar i intressant läsning. Nu kanske vissa av er suckar medan andra lyfter på ögonbrynen, men jag har tänkt att skapa en artikelserie kring det.

Tandblekning är en väldigt konkurrentutsatt nisch. Dels har vi ett flertal företag som har tandblekningsprodukter som jobbar för att dominera sökresultatet, och samtidigt har vi en uppsjö av affiliate-sidor för tandblekning som försöker göra det samma. Att ta en topp-tio placering där är knappast någonting man gör i en höftsväng och det gör att det lämpar sig perfekt för mitt ändamål. En topp-placering på ”tandblekning” ger en helt okej ersättning, speciellt om du även dominerar viktiga synonymer. Men jag måste säga redan nu att det finns bättre nischer att ge sig in på om man vill tjäna pengar som publisher åt affiliateprogram, men artikelserien blir lika intressant för det.

Hur som helst tänker jag öppna en webbplats om tandblekning väldigt snart och senare i höst kommer första delen i artikelserien att publiceras. Jag kommer att i flera delar gå igenom:

  • Framtagandet av webbplatsen. Varför jag valt upplägget/designen, kort om on-page SEO och mina planer för webbplatsen.
  • Bygga upp förtroende och auktoritet i Google.
  • Detaljerad plan för länkbygge.
  • Följa placeringen i Google och ta handling där efter.

Ni kommer självklart få reda på vilken domän det rör sig om och jag kommer hela tiden jobba så transparent som möjligt. Syftet är att ni ska kunna se och läsa om vad jag gör – och framför allt varför jag gör det.

Jag vet inte hur många delar artikelserien kommer att bli då vissa punkter går att dela upp i flera artiklar. Det är dessutom möjligt att jag efter ett par månader ger en återblick på hur det gått, vad jag skulle kunnat gjort bättre och vad jag kan/ska göra för att göra ytterligare framsteg. Det bör det dock poängteras att jag inte tror att jag kommer ligga i en topp-tio placering inom ett år. Anledningen till det lämnar jag åt artikelserien…

Sökmotoroptimera dina bilder för Google Images

Hund TräningOfta när man pratar sökmotoroptimering så hamnar innehållet i form av text i fokus. De bilder man visar på webbplatsen hamnar i skuggan av det arbetet eller så glöms de bort helt och hållet. Jag ser det allt för ofta och sökmotoroptimering för bilder är väldigt underskattat. Det kan faktiskt vara så att du går miste om tusentals besökare varje månad för att du inte optimerat dina bilder för sökmotorn.

Jag tänkte ge lite tips på hur du kan göra detta på bästa sätt. Detta är inte på något vis en komplett guide utan tar upp det mest väsentliga som jag kan komma att tänka på i skrivande stund.

Det är inte säkert att du vill optimera din bild för samma nyckelord som texten på sidan, även om det i många fall säkert är så. Hur som helst så är texten på sidan där bilden visas en stark förknippelse till bilden.
 

10 Tips för dina bilder..

Filnamnet - Bildens filnamn har stor betydelse och ska innehålla de sökord som du vill att bilden ska placera sig bra på. Ju mer optimerat filnamn, desto bättre. I exempelbilden har jag döpt filen till hund-traning.jpg då jag anser att det är de två viktigaste nyckelorden och en trovärdig sökning även om det är särskrivet.

Alt-atributet – Till bilder följer ett alt-atribut med som står för Alternative. Det är den text som visas som alternativ om läsaren inte kan visa bilden eller om användaren inte kan tolka bilden själv på grund av att denne exempelvis är blind eller en sökrobot. En lämplig text för min exempelbild skulle kunna vara ”Man tränar hunds lydnad på stranden”.

Title-atributet – Detta är den text som dyker upp när markören till musen stannar över bilden. Den är avsedd för att förklara bilden och ge en djupare förståelse för de som ser den. En lämplig text här skulle kunna vara ”Jag tränade min hund Fido nere på stranden”.

Rubriken på sidan – Bilden kommer att få relevans kopplad till den huvudrubrik och den underrubrik som ligger närmast bilden. Hur vida du kan påverka detta till bildens fördel kan vara svårt om bilden är en del av ett större dokument.

Titeln på sidan - Den titel du använder på sidan kommer påverka bildens placeringar, samma sak gäller här som på Rubriken.

Texten kring bilden - Det är inte ovanligt att Google får för sig att något värdelöst datum på sidan ska förknippas med bilden, var därför noga med vad som finns runt bilden i html-koden. Använd element som <strong> och <em> för att belysa nyckelord och fraser till bilden.

Bildens storklek – Bilder som är väldigt små, likt tumnaglar har svårare att ta placeringar än större bilder. Google gillar stora bilder och föredrar dem framför mindre. Bilder avsedda för att användas i artiklar (likt mitt exempel) och större har bra möjligheter att ta bra placeringar.

Länka bilden - Länka gärna bilden till en större bild. Google förstår detta och kommer föredra att visa den större bilden i Google Images. Om du däremot länkar till en ny sida där en större bild visas (likt ett galleri) så kan Google få problem att knyta ihop koppling av detta. Men gör det som fungerar bäst för dig.

Antal bilder per sida – Lägg inte för många bilder på en och samma sida. Även om Google är kapabel att indexera alla så kommer du endast få visa maximalt 2st bilder från varje sida i resultatet. Låt säga att jag hade haft 4 bilder optimerat för ”hund träning” så hade maximalt 2st av dessa dykt upp när man sökte på det. Det finns undantag för detta men tänk på antalet och om det inte ger något mervärde för läsaren att lägga in fler bilder, så kanske det kan vara bra at spara dem till en annan sida?

Format och storlek – Detta säger sig kanske själv, men använd endast de vanliga formaten som GIF, JPEG eller PNG för dina bilder. Om en vanlig webbläsare inte kan visa bilderna så kommer bilderna inte heller att visas i sökresultatet för bilder. Försök även att hålla filstorleken inom rimliga nivåer. En bild som tar flera Megabyte är kanske inget Google ser som ett förstaval att rekommendera sina sökande… Om du har Photoshop så kan du spara dina bilder som ”Save to web…” och liknande funktioner finns i de flesta bildredigeringsprogram för att få ner filstorleken…

Ta nytta av Squidoo i din SEO/SEM

Squidoo LensFör ett tag sedan twittrade jag om hur förvånad jag är att man så sällan stöter på Squidoo-lenses på den Svenska marknaden. Det kan självklart vara så att Squidoo är en engelsk tjänst men det hindrar inte någon (så vitt jag vet) att använda det mot den svenska marknaden. Squidoo är en typisk Web 2.0 tjänst där du som användare har möjlighet att skapa en lens (lins). En lins är egentligen en enda sida där du har möjlighet att lägga in innehåll med hjälp av olika widgets. Det kan vara text, bilder, omröstningar, filmklipp etc.

Så hur kan du ta nytta av detta om vi ser till SEO/SEM?

När du skapar en lins så blir sidan en del av domänen squidoo.com (exempelvis: squidoo.com/din-lens-adress) och på så sätt drar din lins nytta av den authority / förtroende som domänen besitter, och just Squidoo har väldigt bra förtroende. På grund av detta så är det förmodligenbetydligt lättare att få en lins att ta bra placeringar i sökmotorn (läs Google) än det är med en vanlig undersida på din egna domän.

En annan klar fördel som också påverkas av det höga förtroendet är att du har betydligt svårare att hamna i filter på grund av slarvigt länkbygge. Du kan således bygga inlänkar till linsen snabbt och förvänta dig ett resultat snabbt där efter.

När du bygger din lins har du även möjlighet att uppge nyckelord som är kopplat till din lins, eller snarare taggar. Dessa taggar knyter ihop andra linser på Squidoo och det kan vara klokt att välja dessa med omsorg så din lins även får del av länkkraft från andra.

Den kanske absolut viktigaste faktorn är att att du på din lins kan länka till vilka webbplatser som helst, med vilka nyckelord som helst och utan attributet rel=”nofollow”. Detta är verkligen guld värt ur ett SEO-perspektiv. På så sätt kan du få en relevant inlänk till din ordinare sida från en webbplats med väldigt högt förtroende. Linsen i sig har även inlänkar både från andra undersidor på Squidoo men även utifrån om du själv lagt ner lite energi på att fixa det.

Även om du kan använda squidoo-linsen för att bygga länkkraft till din egna webbplats, så kan du även marknadsföra produkter och tjänster direkt på linsen. Hela upplägget kan vara gjort för att marknadsföra dina produkter och en bonus blir sedan att linsen är en del i ditt egna länkbygge.

Tips på hur du kan bygga bra linser?

Eftersom linsen endast är en enda sida, som iofs kan vara väldigt lång, så begränsas möjligheterna lite. Det är väldigt populärt att skapa linser med någon form av listor och jag tänkte ge lite exempel:

  • Du driver en E-butik som säljer böcker, varför inte skapa en lista kallad ”10 bästa deckarna genom tiderna”. Här får du möjlighet att göra reklam för böcker i din butik, få djuplänkar direkt till dem och även någonstans klämma in en länk till din e-butiks första sida.
  • Kanske är ni en målarfirma eller ett företag som utför något annat praktiskt arbete. Kanske kan ni då skapa en lista över tips på hur man gör det själv, men att sedan avsluta med att tipsa om ert företag som är både bra och prisvärt för de som inte vågar sig på det själv?
  • Kanske driver ni, precis som jag affiliate-sidor och kan ge tips på vad man ska tänka på före köp och sedan berätta var läsaren kan finna mer information…

Vad kan man förvänta sig?

Det beror givetvis på hur du skapar linsen och vad du sedan gör med den. Det kan vara smart att inte rikta linsen mot svåra nyckelord, även om det går att ta bra placeringar så är det betydligt lättare om man tar ett lite lättare nyckelord men som ändå har sökningar. Det är exempelvis mycket lättare att ta placeringar på ”Billiga flygbiljetter till Madrid” än att försöka sig på att ta placeringar på bara ”Madrid” eller ”Flygbiljetter”.

Även om du gör en bra undersökning så krävs det länkar till linsen för att det ska hända något. Som ett test har jag själv lagt upp en lins om Mobilt Bredband. Efter att jag lagt ner en timme på att skriva massa text så gick jag till Digital Points forum och köpte ett billigt länkpaket för $25. Resultatet kan ni se själva på sökfrasen ”Mobilt Bredband”. Tyvärr är inlänkarna lite tråkiga då det blev lite väl spammiga för min smak. Men det intressanta är resultatet av det hela…

Länken ovan till linsen jag skapade har nofollow, så länken från detta inlägg har ingen inverkan på resultatet i sökmotorn. I skrivande stund har linsen placering 24 på söktermen…

Jag är en dagrömmande soffpotatis

I alla fall om man får tro Windows Live Skvallerbyttan. Det är ingen slående titel på ett CV tyvärr men helt klart en intressant syn på mitt Internetanvändande.

Nu är jag en flitig användare av Internet Explorer så jag får säkert skylla mig själv att mitt E-liv går att läsa som en öppen bok :)

Följande diagnos fick jag i alla fall:

  • Dagdrömmer
  • Har för lite att göra
  • Är en Soffpotatis
  • Är en Nyhetsjunkie
  • Är från Småland
  • Älskar Excel
  • Är Hobbyanarkist
  • Har fotboll som religion
  • Är en Geek
  • Saknar lokalsinne

En del av detta stämmer givetvis in, men Skvallerbyttan har inte riktigt greppat min situation. Exempelvis så har jag har massor att göra, men däremot blir för lite gjort och det är inte mitt fel utan fotbolls VM :)

Och vilket trevligt länkbete de skapat…

Ny tjänst: Alla Webbhotell

Alla WebbhotellFör ett par veckor sedan skapade jag ett par feedback trådar på några svenska webmaster-forum för att få lite kött på benen om min nya tjänst för att söka och jämföra webbhotell. Jag har fått in många åsikter och synpunkter kring webbplatsen och ser fram emot att implementera och förbättra tjänsten under sommaren.

Adressen till Alla Webbhotell:
http://www.allawebbhotell.com

Jag kommer närmast att utveckla så:
- Webbhotell själva kan administrera sina paket, svara på recensioner och lägga in erbjudanden.
- Möjligheten att växla mellan inkl. moms och exkl. moms.
- Användare kan jämföra paket mellan olika webbhotell.
- Lägga till fler specifikationerna och ta fram en bättre söktjänst.

Utöver detta kommer det ske ett antal småfixar och med tiden planeras ett bättre gränssnitt för webbplatsen.

På webbplatsen finns ett flertal olika listor som bland annat visar Sveriges bästa webbhotell just nu och Sveriges billigaste webbhotell.

Den främsta anledningen varför jag valt att ta fram tjänsten är att de listor som finns nu antingen känns väldigt begränsade i funktioner / antal webbhotell, eller så innehåller de bara affiliate-länkar. Hoppas bara tjänsten får den uppmärksamhet som behövs…

Nu tar Google hänsyn till sidans hastighet!

Det har sedan ett tag tillbaka, slutet på 2009 om jag inte miss minner mig varit känt att Google troligtvis kommer ta hänsyn till hur snabb en webbplats är när de visar sitt sökresultat. Matt Cutts har i en video från 2010 nämnt att de ännu inte tar hänsyn till det men att det finns de på Google som anser att de borde, och jag kan helt klart hålla med. En snabb sida ger en bättre upplevelse för den som söker, och det är något Google helt klart är intresserade av.

Google tar sedan ett par veckor tillbaka hänsyn till webbplatsens hastighet.

Matt Cutts nämner att max 1% av sökresultatet påverkas och att det inte är några större ändringar som skett. Även om detta må vara sant så anser jag helt klart att det nu är dags att se över sin webbplats hastighet. Den lilla procent som påverkas av detta just nu är förmodligen webbplatser som är extremt långsamma. Överbelastade servrar eller dåligt utvecklade tjänster är förmodligen de främsta anledningar i dagsläget.

Över en längre tid kan dock Google få en bättre översikt av hastigheten. Om din webbplats ALLTID är långsam, så är det inte omöjligt att du kommer påverkas ännu mer negativt. En snabb webbplats är ett tydligt tecken på att ens webbplats är seriös och är den alltid långsam så kan det ge oönskade effekter. Dessutom kan Google ändra sig över tiden i sitt tänkande över hur snabbt de anser webben ska vara.

Köp av hemsida ledde till viktnedgång

Vem kunde tro att man skulle gå ner i vikt genom att ta över en hemsida? Nu är iofs viktnedgången en konsekvens av att jag satte mig in i ämnet för sidan och kände suget av att prova. Och med ett enastående resultat…

Det är webbplatsen vlcd.se som jag tog över och i vintras slipade jag på ersätta den befintliga sidan med en ny. Resultatet av det kom live i början av Mars. VLCD står för Very Low Calorie Diet och är en metod för att helt enkelt gå ner i vikt snabbt. Något jag också gjorde när jag provade dieten under knappt 3 veckors tid.

Det har nu gått två veckor efter jag avslutade dieten och jag ligger stabilt i vikt med en total nedgång på över 5kg. Det bästa med dieten är inte min viktminskning utan hur bra jag mådde under tiden (bortsett från ingångsfasen). Så mycket energi och ork man får, och så mycket man får gjort pågrund av det :) Den förra ägaren beskrev det som Duracellkanin och jag hade inte kunnat beskriva det bättre själv…

VLCD.se är inte ett av de projekt jag kommer ägna jätte mycket tid åt just nu. Även om det finns jätte mycket att förbättra och bygga ut så har jag andra projekt som tar upp för mycket tid. Ett av de större projekten förväntas gå live för publik testning redan om ett par veckor.

Google översätter sökningar

Klockan har slagit 06:15 och efter en lång natt har jag snubblat över detta fenomen två gånger och det var först andra gången som jag verkligen förstod vad som hände och varför; Google översätter min sökning för se om det finns internationella sidor på Engelska som kan ge det jag söker.

Det första jag snubblade över var när jag sökte på detta men det första resultatet som visades var:
-  WikiAnswers – How fast do helicopter roter blades spin.

Den andra gången var det en sökning till min stadsguide för London som jag tog en närmare titt på från mitt statistikverkyg. Sökningen på termen ”london bokaffär” gav resultat för min artikel om ”Foyles Bookshop” och fetmarkerade Bookshop (se bild).

Det är möjligt att detta funnits ett tag men jag har aldrig sett det själv, och jag har aldrig sett någon annan blogga om det heller.

Har du lagt märke till det själv? Kommentera och berätta :)

Sida 1 av 3123