Kim Andersen

Webudvikling, Umbraco, Google, SEO, sociale medier mm.
  • Hold dig opdateret med mit RSS-Feed
  • Hjem
  • Modtag nye indlæg på mail

Library Detector: Hvilket JavaScript bibliotek bliver der brugt?

Kim Andersen | 18. august 2009 | 21:31

firefoxEt lille hurtigt tip til alle jer der bruger Firefox som browser.

Kender du det, at du kommer ind på et website, hvor der er lavet en eller anden over fed effekt, eller virkelig gjort noget ud af brugervenligheden på eksempelvis formularer. Meget ofte er disse effekter og hjælpeelementer lavet vha. et JavaScript bibliotek som eksempelvis jQuery, MooTools, Prototype osv.

Hvis du så godt selv kunne Læs resten af dette indlæg »

kommentarer
Ingen Kommentar »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Pastie.org – Del din programmering med venner, kolleger og verden

Kim Andersen | 26. februar 2009 | 21:25

Pastie LogoPastie.org, er et site som faktisk er rimelig smart. Du kan indtaste en masse programmeringskode i en stor textbox, og så faktisk dele det med dem du nu har lyst til at dele det med. Det kan eksempelvis være din studiegruppe, dine kolleger, dine venner, eller hele verden hvis det er det du har lyst til.
Og så er det ganske simpelt og gratis.

Hvis vi siger at vi sidder nogle stykker med et projekt og jeg skal vise dem noget PHP jeg eksempelvis har lavet så kan jeg først indtaste det de skal se, og derefter klikke på ”Paste”-knappen.
Så bliver jeg Læs resten af dette indlæg »

kommentarer
Ingen Kommentar »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Firebug Lite – Firebug til Internet Explorer, Opera og Safari!

Kim Andersen | 28. januar 2009 | 10:00

Firebug LiteFirebug nu også til Internet Explorer, Opera og Safari. Firebug Lite er en udgave af det kendte Firefox-plugin Firebug.
Det er et genialt stykke værktøj som alle webudviklere burde have til deres Firefox. Og nu findes det altså også i en Lite udgave til folk som bruger Internet Explorer.

Nu ved jeg ikke hvor mange folk som udvikler i Internet Explorer, Opare eller Safari som deres primære browser, men der skal nu nok være en pæn slat. Derfor er det en genial ide fra Firebugs side at lave en version hertil også.

Der findes flere måder at bruge Firebug Lite på i de tre browsere. Læs resten af dette indlæg »

kommentarer
4 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

IE Tester – Test din side i Internet Explorer 5.5, IE6, IE7 og IE8

Kim Andersen | 20. januar 2009 | 11:53

Som udvikler af websites er dette lille program fantastisk. Programmet hedder IE Tester, og er et lille program hvori du kan teste hvordan dit site ser ud i Internet Explorer 5.5, IE6, IE7 og IE8 beta 2.

Selve interfacet ser ud ligesom man kender det fra Microsoft Office Word 2007, så det er lige til at gå til. Du kan så vælge hvilke browsere du vil teste i, eller have alle fire browsere åben i hver sin fane i programmet.

Herunder kan du se et screenshot af hvordan programmet ser ud, og jeg har som testeksempel smidt min egen blog ind, og testet den i Internet Explorer 8 beta 2: Læs resten af dette indlæg »

kommentarer
15 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Optimer og ryd op i CSS-kode med CleanCSS

Kim Andersen | 24. september 2008 | 10:21

CleanCSS
Kender du det at du får overdraget en CSS-fil eller på anden måde skal ind og rode i en CSS-fil som du ikke selv står bag?
Det gør jeg i hvert fald. Somme tider får man en fil som er overskuelig og fint sat op, men andre gange får man en fil hvor der er skrevet CSS-kode ud i en lang køre.

I det sidste tilfælde er det rent ud sagt ”pain-in-the-ass”, og utrolig demotiverende at gå i gang med. Men det er der råd for nu.
Læs resten af dette indlæg »

kommentarer
8 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Robots.txt og underdomæne/subdomæne – Hvad skal man gøre?

Kim Andersen | 22. september 2008 | 10:54

Alle som læser herinde kender nok til robots.txt. Det er den lille fil som ligger i rodet af dit website, som fortæller alle webcrawlerne hvad de må, og hvad de ikke må på dit website.
Jeg har tidligere skrevet artiklen: Robots.txt – Hvad, hvorfor og hvordan?, så jeg vil ikke gennemgå hvad en robots.txt skal indeholde.

Hvad gør man når man har et subdomæne/underdomæne?
Man kan let komme ud for at der er brug for et underdomæne til forskellige ting. Det kan eks. være til test af nye ting på sit site, eller bare en ”underafdeling” til hovedsitet.
Men gælder den robots.txt man har liggende på sit hoveddomæne så også her? Læs resten af dette indlæg »

kommentarer
Ingen Kommentar »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Lav din standard HTML hjemmeside om til et CMS på 5 minutter!

Kim Andersen | 8. september 2008 | 12:33

CushyCMSCushyCMS er navnet på et online CMS, som du kan koble på din hjemmeside på bare 5 minutter. Det lyder måske utroligt at man kan have sin helt normale, standard HTML hjemmeside og få implementeret et CMS på bare 5 minutter. Men det kan man faktisk.

Jeg går ud fra at alle der læser med her, ved hvad et CMS er, men for lige at være sikker, kan det kort siges at et CMS (Content Management System), er en metode hvorpå man kan rette i indholdet på sin hjemmeside ude at skulle ind og rode i koden.
Læs resten af dette indlæg »

kommentarer
4 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Antal hjemmeside i verden 2008: Over 162 millioner

Kim Andersen | 13. april 2008 | 07:51

I forbindelse med researchen til min seneste artikel, omkring Verdens første hjemmeside, faldt jeg over en lidt sjovt, og samtidig meget interessant artikel hos Royal Pingdom.
Den beskriver hvor mange hjemmesider, der findes i verden anno 2008. De seneste tal som er kommet er fra marts 2008, og tallet ligger på over 162 millioner.
Der er lavet en statistik som begynder helt fra den første hjemmeside i 1990. Statistikken kan ses herunder i en graf:
Læs resten af dette indlæg »

kommentarer
5 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Verdens første hjemmeside. Hvem? Hvornår? Hvordan?

Kim Andersen | 8. april 2008 | 12:10

Hvem lavede verdens første hjemmeside? Hvornår blev verdens første hjemmeside lavet? Hvem var verdens første web surfer?
Jeg er ikke ved at finde på nye spørgsmål til Trivial Pursuit, men jeg kom til at snakke med en kammerat om disse spørgsmål og et par flere til, omhandlende samme emne.

Da vi ikke sad ved en computer på det pågældende tidspunkt, kunne vi ikke undersøge sagen, men det har jeg gjort nu.
Læs resten af dette indlæg »

kommentarer
7 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

NOSNIPPET, NOARCHIVE, unavailable_after, robots.txt og META tags

Kim Andersen | 8. marts 2008 | 21:00

Som jeg skrev i min tidligere artikel omkring robots META-tags, findes der flere funktioner eller regler, som visse robotter kan forstå. Disse funktioner er ikke standardiserede, men de fleste store robotter kan forstå dem. I hvert fald kan googlebot.

Hvis vi starter med robots.txt-filen, kan man fortælle robotterne at man har et sitemap over sin side. Det kan gøre på følgende måde:

Sitemap: http://www.eksempel.dk/sitemap.xml

Dette forståes af de store søgemaskiners robotter, såsom Google, Yahoo, MSN og ASK. Og det bruges af mange af de store virksomheder også, bl.a. er det skrevet i Microsoft’s robots.txt-fil hvor deres sitemaps befinder sig.
Lige en detalje vedrørende funktionen “Sitemap:”. Den er uafhængig af User-agent, så du kan faktisk indsætte den hvor du har lyst til, dog vil jeg foreslå at indsætte den til sidst i din robots.txt-fil.

Har man lyst til at indsætte en kommentar i sin robots.txt-fil kan dette også gøres ved at skrive et “#” efterfulgt af en kommentar. Det er ikke noget som påvirker læsningen af resten af robots.txt-filen robotter.

Har man bestemte URL-type, eksempelvis en URL som slutter på .pdf, eller en URL som indeholder et bestemt tegn som måske et &-tegn, kan disse også udelukkes. Det gøres således:

User-agent: *
Disallow: /*& #Udelukker alle URL’er som indeholder et $-tegn
Disallow: /*.pdf$ #$ fortæller robotterne at alle filer som ender på .pdf- ikke skal indexeres

Som du kan se ovenfor har jeg også indsat kommentarer, for at vise hvordan dette gøres.

Robots META-tags

De funktioner som jeg vil gennemgå nu, er nogle som bl.a. Googles Product Manager, Dan Crew, har været med til at udvikle, og derfor kan de følgende funktioner læses af googlebot, og muligvis også andre robotter.

Det handler om Robots META-tags, hvor man kan give “content” et andet indhold end dem jeg nævnte i min tidligere artikel.

Det første jeg gennemgår er et indhold af “content” som enten er NOARCHIVE eller NOSNIPPET.
Hvis du sætter contet=”NOARCHIVE” på en af dine sider, vil Google ikke oprette en link til en cached version af din side. Nogle af fordelene ved at der findes en cached version af din side er eks. hvis din side er nede, så kan folk stadig komme ind på den, hvis store nyhedssider er underpress pga. en stor begivenhed og derved mange besøgende på samme tid. Det kan også være at din side ved en fejl bliver slettet, har brugerne stadig mulighed for at komme ind. Og så er det så smart ved en cached version, at de søgeord en bruger har søgt på bliver fremhævet.
En af ulemperne, og det kan være grunden til at man måske vil bruge contene=”NOARCHIVE”, er hvis man har en side som bliver opdateret meget ofte, så kommer googlebot måske ikke forbi lige så ofte, og derved kan man se en uaktuel side. Det er måske relevant for nyhedssider.

iGoogle

En snippet er den lille stump tekst som står under din titel, i Googles søgeoversigt. Der kan være grunde til at man ikke vil have en tekst vist der, jeg ved ikke lige hvilken, men det kan altså lade sig gøre ved at sætte et robots meta-tag ind som ser således ud:

<META NAME=”ROBOTS” CONTENT=”NOSNIPPET”>

Det skal siges at hvis man sætter content=”NOSNIPPET”, bliver der hverken vist en snippet, men heller ikke nogen cache.

Den sidste funktion jeg vil beskrive er en kaldet unavailable_after. Her kan man give Google besked på at fjerne en bestemt side efter en bestemt dato. Det skrives således:

<META NAME=”GOOGLEBOT” CONTENT=”unavailable_after: 30-Aug-2009 14:00:00 EST”>

Her giver vi besked på at en bestemt side skal fjernes fra Google’s søgeresultater efter den 30. august 2009 kl 14.00 EST. (NB! tiden skal angives i EST).
Bruger man denne funktion skal man være opmærksom på at der godt kan gå op til et døgn, før virkningen træder i kraft. Og din side bliver ikke fjernet fra hele Google’s system, men kun fra søgeresultaterne. Hvis du vil have en side fjernet totalt fra Google’s system skal du bruge følgende link: http://googlewebmastercentral.blogspot.com/2007/04/requesting-removal-of-content-from-our.html

Man kan have flere grunde til at få fjernet en side på en bestemt tidspunkt. Hvis man eks. har en sæsonbetonet side, som kun gælder i et bestemt tidsrum, eller hvis man har en side som er åben for alle i en måned, men derefter kun for medlemmer.
Hvis man ahr en side som bliver fjernet, er det smart at bruge unavailable_after, da der ikke er nogle brugere som finder din side, og så ikke kan komme derind. Så det er mere brugervenligt, selvom brugerne ikke ved det.

Det var det for denne gang. Håber ikke artiklen er for lang men at den var brugbar.

kommentarer
Ingen Kommentar »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

  • Side 1 af 2
  • 1
  • 2
  • >

CoolShop.dk
Bodylab
MuscleHouse
Bodyman
Bodystore

Seneste Kommentarer

  • Simon fra Besvaret.dk:
  • Jeg kan stadig huske da jeg spillede dette spil på Google. Er der nogen...
  • - - - - - - - - - -
  • Joakim:
  • Jeg arbejder selv med SEO, og måske dette forum kunne få øjnene op for min hjemmeside,...
  • - - - - - - - - - -
  • Bengt:
  • Tackar för tipsen!
  • - - - - - - - - - -
  • Rene:
  • Tak for din venlighed og tak for link. Rigtig dejlig dag
  • - - - - - - - - - -
  • Jakob Kvorning:
  • Super ide som jeg håber flere vil benytte. I kunne også tilmelde jer på...
  • - - - - - - - - - -

Kategorier

  • Affiliate Marketing (1)
  • Alt andet (16)
  • Database og Normalisering (3)
  • Digital Markedsføring (2)
  • E-handel (2)
  • Firefox (1)
  • Flash (1)
  • Gadgets (4)
  • Google (22)
  • Internet (9)
  • Multimediedesigner (2)
  • NFL (2)
  • Problemer ved programmering (1)
  • SEO (12)
  • Sitecore (1)
  • Tegnsæt (2)
  • Twitter (4)
  • umbraco (8)
  • Web 2.0 (9)
  • Webdesign tips og tricks (7)
  • Webudvikling (12)
  • Windows (3)
  • WordPress (12)

Meta

  • Log ind
  • Indlæg-RSS
  • Kommentar-RSS
  • WordPress.org