Kim Andersen

Webudvikling, Umbraco, Google, SEO, sociale medier mm.
  • Hold dig opdateret med mit RSS-Feed
  • Hjem
  • Modtag nye indlæg på mail

Konverter ét tegnsæt til et andet tegnsæt. Få vist danske tegn æøå

Kim Andersen | 11. marts 2008 | 09:41

Nyt problem med det danske tegnsæt.
Denne gang havde jeg problemer med at få vist de danske tegn, æøå, når jeg hentede en tekststreg fra en database til et XHTML dokument.

Der blev bøvlet frem og tilbage, mange ting blev igen prøvet, og til sidst blev det en php-funktion kaldet iconv, som skulle testes af.

Funktionen foregår på den måde, at den kan konvertere et bestemt tegnsæt, til et andet tegnsæt på en given tekststreng. Man skal angive hvilket tegnsæt man vil konvertere fra, hvilket tegnsæt man vil konvertere til, samt tekststrengen.

Det skrives således:

<?php
echo iconv(“tegnsæt_ind”, “tegnsæt_ud”, “tekststreng”);
?>

Ser vi på et konkret eksempel, kan det måske være:

<?php
echo iconv(“ISO-8859-1”, “UTF-8”, “Dette er min tekststreng hvori der indgår æøå”);
?>

Den ovenstående funktion konverterer tegnsættet ISO-8859-1, til tegnsættet UTF-8.
Der kan også konverteres fra andre tegnsæt og til andre tegnsæt. Det er igen slet ikke sikkert at denne funktion virker for dig, eller for mig igen for den sags skyld, men prøv det ad hvis du får brug for det.

kommentarer
2 Kommentarer »
Kategorier
Tegnsæt
RSS Kommentarer RSS Kommentarer

NOSNIPPET, NOARCHIVE, unavailable_after, robots.txt og META tags

Kim Andersen | 8. marts 2008 | 21:00

Som jeg skrev i min tidligere artikel omkring robots META-tags, findes der flere funktioner eller regler, som visse robotter kan forstå. Disse funktioner er ikke standardiserede, men de fleste store robotter kan forstå dem. I hvert fald kan googlebot.

Hvis vi starter med robots.txt-filen, kan man fortælle robotterne at man har et sitemap over sin side. Det kan gøre på følgende måde:

Sitemap: http://www.eksempel.dk/sitemap.xml

Dette forståes af de store søgemaskiners robotter, såsom Google, Yahoo, MSN og ASK. Og det bruges af mange af de store virksomheder også, bl.a. er det skrevet i Microsoft’s robots.txt-fil hvor deres sitemaps befinder sig.
Lige en detalje vedrørende funktionen “Sitemap:”. Den er uafhængig af User-agent, så du kan faktisk indsætte den hvor du har lyst til, dog vil jeg foreslå at indsætte den til sidst i din robots.txt-fil.

Har man lyst til at indsætte en kommentar i sin robots.txt-fil kan dette også gøres ved at skrive et “#” efterfulgt af en kommentar. Det er ikke noget som påvirker læsningen af resten af robots.txt-filen robotter.

Har man bestemte URL-type, eksempelvis en URL som slutter på .pdf, eller en URL som indeholder et bestemt tegn som måske et &-tegn, kan disse også udelukkes. Det gøres således:

User-agent: *
Disallow: /*& #Udelukker alle URL’er som indeholder et $-tegn
Disallow: /*.pdf$ #$ fortæller robotterne at alle filer som ender på .pdf- ikke skal indexeres

Som du kan se ovenfor har jeg også indsat kommentarer, for at vise hvordan dette gøres.

Robots META-tags

De funktioner som jeg vil gennemgå nu, er nogle som bl.a. Googles Product Manager, Dan Crew, har været med til at udvikle, og derfor kan de følgende funktioner læses af googlebot, og muligvis også andre robotter.

Det handler om Robots META-tags, hvor man kan give “content” et andet indhold end dem jeg nævnte i min tidligere artikel.

Det første jeg gennemgår er et indhold af “content” som enten er NOARCHIVE eller NOSNIPPET.
Hvis du sætter contet=”NOARCHIVE” på en af dine sider, vil Google ikke oprette en link til en cached version af din side. Nogle af fordelene ved at der findes en cached version af din side er eks. hvis din side er nede, så kan folk stadig komme ind på den, hvis store nyhedssider er underpress pga. en stor begivenhed og derved mange besøgende på samme tid. Det kan også være at din side ved en fejl bliver slettet, har brugerne stadig mulighed for at komme ind. Og så er det så smart ved en cached version, at de søgeord en bruger har søgt på bliver fremhævet.
En af ulemperne, og det kan være grunden til at man måske vil bruge contene=”NOARCHIVE”, er hvis man har en side som bliver opdateret meget ofte, så kommer googlebot måske ikke forbi lige så ofte, og derved kan man se en uaktuel side. Det er måske relevant for nyhedssider.

iGoogle

En snippet er den lille stump tekst som står under din titel, i Googles søgeoversigt. Der kan være grunde til at man ikke vil have en tekst vist der, jeg ved ikke lige hvilken, men det kan altså lade sig gøre ved at sætte et robots meta-tag ind som ser således ud:

<META NAME=”ROBOTS” CONTENT=”NOSNIPPET”>

Det skal siges at hvis man sætter content=”NOSNIPPET”, bliver der hverken vist en snippet, men heller ikke nogen cache.

Den sidste funktion jeg vil beskrive er en kaldet unavailable_after. Her kan man give Google besked på at fjerne en bestemt side efter en bestemt dato. Det skrives således:

<META NAME=”GOOGLEBOT” CONTENT=”unavailable_after: 30-Aug-2009 14:00:00 EST”>

Her giver vi besked på at en bestemt side skal fjernes fra Google’s søgeresultater efter den 30. august 2009 kl 14.00 EST. (NB! tiden skal angives i EST).
Bruger man denne funktion skal man være opmærksom på at der godt kan gå op til et døgn, før virkningen træder i kraft. Og din side bliver ikke fjernet fra hele Google’s system, men kun fra søgeresultaterne. Hvis du vil have en side fjernet totalt fra Google’s system skal du bruge følgende link: http://googlewebmastercentral.blogspot.com/2007/04/requesting-removal-of-content-from-our.html

Man kan have flere grunde til at få fjernet en side på en bestemt tidspunkt. Hvis man eks. har en sæsonbetonet side, som kun gælder i et bestemt tidsrum, eller hvis man har en side som er åben for alle i en måned, men derefter kun for medlemmer.
Hvis man ahr en side som bliver fjernet, er det smart at bruge unavailable_after, da der ikke er nogle brugere som finder din side, og så ikke kan komme derind. Så det er mere brugervenligt, selvom brugerne ikke ved det.

Det var det for denne gang. Håber ikke artiklen er for lang men at den var brugbar.

kommentarer
Ingen Kommentar »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Hold styr på søgeordstæthed (Keyword density) – Keyword stuffing

Kim Andersen | 6. marts 2008 | 22:43

Når man skal søgemaskineoptimere sin hjemmeside, er der utrolig mange ting man skal tage højde for. Og der findes tusindvis af hjemmesider, hvor man kan læse om søgemaskineoptimering, i daglig tale SEO. Det er jeg ikke en ekspert indenfor, men jeg er heller ikke helt på bar bund.

Hvis man skal skille sig ud fra mængden med et bestemt søgeord, skal dette søgeord selvfølgelig nævnes. Og det skal nævnes mange steder.
Det skal gerne stå i din titel (title-tag) på siden, i din beskrivelse (Meta-tag Description) af siden, i dine Meta keywords. Selvom Meta Keywords ikke rigtig har betydning for din placering på nuværende tidspunkt, er det smart nok at havde dem med alligevel, for man ved jo ikke om Google pludselig laver om på sine algoritmer. Derudover skal man nævne sit søgeord i selve indholdet på sitet. Og det må gerne nævnes mange gange, sammen med en masse andet tekst 🙂

Det er det som denne artikel skal handle om. Nemlig dine søgeord. For selvom dine søgeord skal nævnes flere gange i selve teksten på dit site, skal det ikke fylde mere end 4-5% af sidens samlede tekstindhold.

Hvis man kommer over de 4-5% kan googlebot finde på at blive mistænksom, og måske anse det for værende spam. Og hvis Google tror du spammer din side til, med et bestemt søgeord, for at komme højere op, så er det ikke positivt. Overforbrug af et søgeord på en side, omtales i øvrigt ofte som Keyword-Stuffing.

Hvis vi ser på en situation hvor du er ved at lave tekst til dit website, og gerne vil søgeoptimere siden på ordet “SEO”. Så laver du en fornuftig title (På max. 67 tegn!) hvori SEO indgår. Du nævner ordet i din description, og også i dine keywords. Så er du godt på vej. Derefter laver du en tekst hvor du skriver en masse ord, og deriblandt SEO flere steder. Nu kan du så tælle alle ordene vha. din finger på skærmen, eller i word. Dernæst kan du tælle hvor mange gange der står “SEO” og så dividere tallene op. Herefter får du din søgeordstæthed – din keyword density.

Men det er sku for besværligt.

Jeg fandt et smart værktøj på SEObook.com, som kan tælle dine ord for dig og fortælle om et bestemt ord, eller flere, går igen for mange gange. Værktøjet genererer faktisk en liste over samtlige ord, og viser så hvor ofte ordene fremkommer.
Keyword Density Analyzer Tool, som værktøjet hedder, kan findes på: http://tools.seobook.com/general/keyword-density/. Og er gratis at bruge.
Der findes andre gratis værktøjer til at måle søgeordstæthed, men mange er uoverskuelige, og der skal indstilles en masse ting før søgningen kan foretages. Men på SEObook.com, kan man vælge om Meta-description og Meta-Keywords skal medtages. Derudover kan man også vælge om der skal fravælges ord på under et bestemt antal tegn.

Alt i alt et godt hjælpeværktøj, som jeg kun kan anbefale.

Har du selv et andet lignende værktøj eller et bedre værktøj til at måle søgeordstæthed, så skriv endelig en kommentar, hvori du omtaler det. Eller har du gode eller dårlige erfaringer med Keyword Density Analyzer Tool, vil jeg gerne høre om det.

Lige linket igen: Keyword Density Analyzer Tool

kommentarer
5 Kommentarer »
Kategorier
SEO
RSS Kommentarer RSS Kommentarer

Web 2.0 indtager de danske virksomheder

Kim Andersen | 4. marts 2008 | 19:22

En af grundene til at jeg startede denne blog, var for at stifte bekendskab med Web 2.0, og for at være lidt mere up-to-date i forhold til hvad jeg kan komme til at lave i fremtiden. Og jeg er langt fra den eneste som tænker således.

Analysehuset, IDC, har nemlig lavet en undersøgelse iblandt 150 danske virksomheder. Undersøgelsen er lavet i januar 2008, og det er der kommet en 12 siders rapport ud af. Den rapport er jeg tilfældigvis kommet i besiddelse af, og der står nogle ret spændende ting set i mine øjne.

I følge analysen har næsten 20% af de danske virksomheder en form for Web 2.0 løsning som det er nu. Det være sig enten i form af blog, socialt netværk, wikis, communities eller virtuelle universer. De sociale netværk (såsom Facebook og LinkedIn) og blogs de mest populære blandt virksomhederne lige nu.

Fremtiden

Grafen nedenfor blev lavet af IDC i forbindelse med undersøgelsen, og den viser en stigning i Web 2.0 tiltagene.

Graf over brugen af Web 2.0

Som det kan ses vurderer IDC, at Communities indefor 12 måneder, vil være at finde i mere en hver fjerde (27%) virksomhed. Dernæst følger blogs og wikis i over 20% af virksomhederne. “Taberne” indefor Web 2.0 er de virtuelle universer, såsom Second Life.

IDC mener at en omkring en fjerdedel er et højt tal, i hvert fald sammenlignet med vores naboer fra Sverige. Dog ligger vi stadig bag USA hvor mellem 20% – 30% allerede i dag bruger Web 2.0. Tallet er dog langt højere i Asien hvor 50% af virksomhederne, mener at mulighederne indefor Web 2.0 er store, og skal udnyttes.

Det er dog en splittelse når det kommer til om Web 2.0 skaber en værdi for virksomheden, og her mener 47,8% at der skabes værdi imens andre 47,8% mener at der ikke skabes værdi. De sidste 4,4% ved det ikke.

Til sidst skriver IDC at en af grundene til stigningerne er de nye kommunikationsmuligheder, som virksomhederne kan bruge både internt, men også eksternt mht. kundekontakt. Og tallet vokser også, da mange af de virksomheder som allerede i dag bruger Web 2.0, vil udvidde med et nyt tiltag indefor Web 2.0.

Men for mit vedkommende, synes jeg det er fedt at der bliver implementeret flere Web 2.0 tiltag i flere og flere virksomheder. Der ligger utrolig mange muligheder i det “nye” Web 2.0, og jeg er allerede selv flittig bruger af nogle af mulighederne.

Se lister over virksomheder som allerede benytter sig af Web 2.0

Emnet er også omtalt hos Version2 med artiklen, Danske virksomheder bygger på Web 2.0.

kommentarer
4 Kommentarer »
Kategorier
Web 2.0
RSS Kommentarer RSS Kommentarer

Guide til indgående links fra store nyhedssider

Kim Andersen | 3. marts 2008 | 00:20

Denne artikel omhandler et emne som er meget vigtigt indenfor søgemaskineoptimering. Nemlig indgående links fra andre sider. Det er ikke altid lige let at skaffe indgående links, men nu er et par af de store nyhedssites, begyndt at “hjælpe”.

Jeg ved godt at jeg ikke er den første der skriver om dette emne, og mange mennesker kender allerede til det der står i denne artikel, men der er endnu flere som ikke gør. Måden hvorpå man kan få linkjuice fra et par af de store nyhedssites, er ved den såkaldte BlogSynergi, hvor de store sites, går ind og linker tilbage til de blogs som omtaler en af deres artikler.

Hvem er med på vognen?

Lige nu er der fire nyhedssites som er med på BlogSynergi-bølgen. Den 21. januar startede Information, med deres artikel: Senest bloggede artikler: links tilbage til blogosfæren. Dernæst fulgte Ekstra Bladet med, med deres artikel: Hvem taler om ekstrabladet.dk? den 24. januar, og Politikken fulgte med deres artikel: Politiken åbner for de danske blogs med, den 11. februar. Seneste skud på stammen er nyhedssitet for IT-Professionelle, Version2, som skrev deres artikel: Nu linker Version2 til hele blogosfæren den 22. februar. Der er dog forskel på hvilket site man får sit link ind på.

Politikken bruger den svenske blogsøgetjeneste Twingly, hvorimod de andre tre bruger den danske overskrift.dk.

Hvordan får jeg så mine links?

Det er meget simpelt. Man tilmelder sig overskrift.dk eller Twingly, afhængig af hvilket site man vil have sit link ind på, og derefter fungere det faktisk af sig selv. Det lyder let ik?

Der er selvfølgelig lige noget man skal gøre inden man får sit link ind på siderne. Man skriver en artikel på sin blog omkring et eller andet emne, og hvis så en af de fire sites har en relateret artikel, linker man til denne. Når man skriver sit blogindlæg på sin blog, bliver det sendt over til overskrift.dk eller Twingly, og her “scannes” det for links til en artikel på en af de fire sites. Hvis der findes et link, vil man blive nævnt i bunde af den artikel man har omtalt. Genialt og simpelt.

Er der forskel på de fire?

Ja, det er der. På Politikken, Ekstra Bladet og Information, får man sit link ind og ligge, men det betyder intet i SEO-sammenhæng da der er sat rel=”nofollow” på, eller lavet med JavaScript, så Google følger ikke dit link. Dog er der stor chance for at andre brugere og læsere af artiklerne ser dit link og følger det, så du får trafik.

På Version2, er der ikke sat Nofollow-tags på linkene (endnu ihvertfald), så her får du et vaske ægte link, fra et stort site, til dit site, og det betyder ikke kun trafik, men er også med til at skubbe dig højere op på Google.

kommentarer
6 Kommentarer »
Kategorier
SEO
RSS Kommentarer RSS Kommentarer

Jeg vil ikke bruge robots.txt, hvad gør jeg? Robots META-tags

Kim Andersen | 1. marts 2008 | 20:35

Jeg skrev om robots.txt for et par dage siden. Men det er ikke den eneste måde at styre søgemaskinerobotterne på. Hvis man af en eller anden grund ikke har lyst til at bruge en robots.txt-fil. Eller hvis man ikke har adgang/lov til at lave en, så er der en anden løsning. Nemlig robots META-tags. Vi kender META-tags fra eksempelvis description, keywords osv.

Hvad er forskellen på robots.txt og et robot META-tag?
En robots.txt-fil gælder fra når en robot kommer ind på forsiden, og her kan man lave regler for alle sider og mapper. Et robots META-tag gælder for den pågældende side, hvor META-taget er placeret. Det vil sige at har man 20 forskellige html-dokumenter, skal der laves en for hver side, hvorpå man vil have nogle regler.

Hvor skal et robots META-tag indsættes?
Man indsætter sit robots META-tag samme sted som med andre META-tags. Inde i <head>-taget. Det kan se således ud:

<html>
<head>
<title>Min hjemmeside</title>
<meta name=”robots” content=”all” />
</head>
<body>
….
….

Hvad skal et robots META-tag indeholde?
Som man kan se i ovenstående tilfælde, er der to parametre man skal tage stilling til. Nemlig ‘name’ og ‘content’.
I name beskriver man at det er et robots META-tag. Man kan også skrive navnet på en bestemt robot, så gælder reglerne kun for denne.
I content beskriver man så hvilke regler der skal gælde. Der kan indsættes flere forskellige værdier i content, men i denne artikel nævner jeg kun standarderne, som alle robotter kan forstå. Det er følgende:

index: Robotten har lov til at indeksere hele det pågældende dokument. Det vil sige hele den side hvori taget er placeret.
noindex: Giver lidt sig selv, og er det modsatte af index. Derfor må robotten ikke indeksere dokumentet.
follow: Denne regel siger til robotten at den må følge alle de links som er på siden, som fører videre til andre sider.
nofollow: Ligesom med index og noindex, så er der en “modsat” af follow. Nofollow siger til robotten at den ikke må indeksere de sider som links med “nofollow” henviser til.
none: Hvis man skriver none i content, betyder det, at robotten ikke har lov til hverken at indeksere siden, eller følge de links den møder. Den må intet. Samme værdi som hvis man skrev “noindex, nofollow”.
all: Hvis man ikke skriver noget i content eller ikke har en robots.txt-fil og ikke har et robots META-tag, har robotterne lov til at gøre alt. De må både indeksere og følge de links de møder. Det samme som hvis man skrev “index, follow”.

Vi kan se på et par eksempler på hvordan man kan skrive sine robots META-tags:

Alle robotter må gøre alt:

<meta name=”robots” content=”all” />

Da name er robots gælder det for alle robotter, og content er all, så de må både indeksere og følge links.

Ingen robotter må indeksere, men alle robotter må følge links:

<meta name=”robots” content=”noindex, follow” />

Googlebot må indeksere selve siden, men ikke indeksere de sider som der bliver linket til:

<meta name=”googlebot” content=”index, nofollow” />

Man kan lave et par andre kombinationer, men følg “opskriften” her, så er det temmelig nemt. Eller spørg 🙂
Der findes nogle andre værdier som man kan bruge, men disse er ikke standardværdier. Dog kan eksempelvis googlebot forstå dem, men dem vil jeg vende tilbage til i en anden artikel.

Til sidst vil jeg sige, at jeg ikke selv bruger robots META-tags, men en robots.txt-fil, da jeg finder det mere overskueligt og lettere. Men det er op til personen selv at bestemme hvordan man vil styre robotterne.
En fordel ved at bruge robots META-tags er dog, at har man en mappe som man ikke vil have indekseret, og har skrevet dette i sin robots.txt-fil, så gør robotterne det ikke. Med mindre en anden hjemmeside linker til den mappe som man ikke vil have indekseret. For så går robotterne jo direkte ind i den pågældende mappe, og derved også uden om din robots.txt-fil.

kommentarer
4 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Robots.txt – Hvad, hvorfor og hvordan?

Kim Andersen | 27. februar 2008 | 21:21

Denne fil er en fil, som jeg ikke selv har brugt ret meget før i tiden. Simpelthen fordi jeg ikke vidste at der fandtes en. Det er heller ikke et krav at den findes for at en hjememside kan fungere, men den er alligevel temmelig brugbar.

Måden hvorpå jeg fandt ud af at der fandtes en fil kaldet robots.txt, var da jeg havde købt mit domæne, kunne jeg se at der var mange tilfælde af, at nogle filer ikke kunne findes på mit domæne. Det undrede jeg mig selvfølgelig over, og så, at 76 ud af 81 tilfælde var det robots.txt der ikke kunne findes. Derfor satte jeg mig for at finde ud af hvad det var, og det er der kommet denne lille artikel ud af.

Hvad er en robots.txt-fil?
En robots.txt-fil er en lille fil, som styrer hvor søgemaskinernes robotter bevæger sig hen på dit website. Hvis man ikke har en robots.txt-fil så kan robotterne bevæge sig rundt overalt på websitet, og det er ikke sikkert man er interesseret i det. Det kan eksempelvis være nogle feriebilleder, gamle arkiv-artikler, sider som er beskyttet med password eller andre ting, som man egentlig gerne vil beholde for sig selv, og ikke skal offentliggøres til hele verden.

Det korte af det lange er, at når eksempelvis Googles robot (googlebot) kommer ind på dit website, søger den som det første efter robots.txt, for at se hvad den må og ikke må. Derfor skal robots.txt ligge i roden af dit website. I samme mappe som index-filen som regel. Min ligger eks. her www.designcreative.dk/robots.txt.

Hvad skal robots.txt indeholde?
Der er to parametre man skal beskrive når man laver sin robots.txt-fil. Hvilke robotter gælder reglerne for, og hvilke regler er det som gælder. Det skrives som:

– Hvilke robotter gælder reglerne for:
Skrives som “User-agent:” og her beskriver man om det skal gælde for alle robotter vha. * eller man kan skrive navnet på en specifik robot.

– Hvilke regler gælder:
Her skriver man “Disallow:” efterfulgt af hvilke mapper eller filer som en robot ikke må indeksere.

Da det kun er to parametre er det faktisk simpelt at skrive en robots.txt-fil. Her er nogle eksempler på hvordan de kan se ud:

Alle robotter må se alt:

User-agent: *
Disallow:

* beskriver som sagt alle robotter, og hvis der ikke står noget ud for Disallow er der ikke noget som robotterne ikke må indeksere.

Ingen robotter må se noget:

User-agent: *
Disallow: /

Når der står / gælder det for hele den mappe som robots.txt ligger i, svarende til hele websitet, da filen jo ligger i roden.

Ingen robotter må se en bestemt mappe:

User-agent: *
Disallow: /gamle_artikler/

Gælder igen for alle robotter da User agent er * og det gælder for mappen “gamle_artikler”, så denne mappe og hele indholdet i mappen må ikke indekseres.
Man kan også skrive /gamle_artikler/september/ så er det kun mappen “september” robotterne ikke må indeksere, men alle andre filer og mapper i “gamle_artikler”, må gerne indekseres.

En bestemt robot (i dette tilfælde googlebot) må se alt, mens alle andre robotter ikke må se noget:

User-agent: googlebot
Disallow:

User-agent: *
Disallow: /

Første linie giver googlebot adgang til alt, imens anden linie forbyder alle andre robotter at indeksere noget.

Bestemte filer må ikke læses:
Hvis man har nogle filer som man ikke vil have indekseret kan man lægge dem i en samlet mappe, eller referere til dem enkeltvis.

User-agent: *
Disallow: /gamle_artikler/1986.html
Disallow: /gamle_artikler/1987.html
Disallow: /gamle_artikler/1988.html

Nu er der ikke adgang til de tre ovenstående filer, og reglen gælder for alle robotter.

Man siger hele tiden hvad robotterne ikke må se. Kan man fortælle dem hvad de gerne må se?
Ja. nogle robotter kan godt forstå parametren “Allow:”. En af disse robotter er googlebot. Så ligesom man kan fortælle en robot at den ikke må indeksere bestemte dele, kan man altså også sige hvad visse robotter gerne må se:

User-agent: googlebot
Disallow: /
Allow: /nye_artikler/

Her siger vi til googlebot at den må se mappen “nye_artikler”, men så heller ikke mere.
NB! Det skal siges at det ikke er alle robotter der kan forstå Allow-parametren, så tjek den enkelte robot før de bruger den. Se en liste med over 300 robotter og en beskrivelse af hver bl.a. deres “User-agent”-navn.

Husk så til sidst at det ikke kun er robotterne som kan læse dine robots.txt-filer, men også alle almindelige mennesker. Hvis man skriver en URL såsom www.eb.dk, og så tilføjer /robots.txt så kommer man i langt de fleste tilfælde ind på den pågældende sides robots.txt-fil. (Det gælder også de store sites som eks. Microsoft og Google. Du kan jo prøve og se hvordan deres ser ud, da de er lidt længere end dem jeg har omtalt…)
Derfor er det en dum ide at lave en robots.txt som indeholder:

User-agent: *
Disallow: /mine_meget_private_billeder/

For hvor tror du så folk prøver at komme hen? Man kan så lave noget password og sådan noget, men der er folk som er gode til at knække koder, så tænk dig om inden du gør noget dumt.

kommentarer
2 Kommentarer »
Kategorier
Webudvikling
RSS Kommentarer RSS Kommentarer

Flash-banner til TV2 Østjylland

Kim Andersen | 26. februar 2008 | 20:02

Lidt personlig succes for mig selv, er andre nok ikke så interesserede i. Det var faktisk heller ikke meningen med bloggen at jeg skulle snakke om personlige opture eller nedture for den sags skyld. Men jeg har i dette tilfælde lyst til at dele min beskedne glæde med andre end mig selv, så der kommer lidt.

I forbindelse med mit praktikophold hos Portal Danmark, skulle der laves et Flash-banner for at reklamere for det nye aarhus.dk. Det blev min opgave, og banneret blev færdiggjort.
Det blev “godkendt” af kollegaerne, og heri lå min første glæde, da jeg igen fik bekræftet at jeg godt kunne lave noget ordentligt og professionelt, som kunne bruges i erhvervslivet.

I dag tirsdag fik jeg så en anden god nyhed, og det er, at mit banner er blevet lagt ind på TV2 Østjyllands hjemmeside helt i toppen af vinduet, for at få noget trafik til aarhus.dk selvfølgelig. Det er jeg selv meget tilfreds med, da der så er flere som har godkendt mit arbejde, i form af en eller flere medarbejdere hos TV2 Østjylland.
Derudover er der også mange folk som ser mit banner, da tv2oj.dk har mange besøgende, og jo flere som ser mit arbejde jo bedre er det. Og så er det da også en fin reference at have med i bagagen synes jeg selv, hvis man skal ud og lave Flash-bannere igen i fremtiden.

Hvis folk har interesse i det, kan banneret som sagt ses i toppen på TV2 Østjyllands hjemmeside.

kommentarer
Ingen Kommentar »
Kategorier
Flash
RSS Kommentarer RSS Kommentarer

Ændring af multimediedesigneruddannelsen og bachelor

Kim Andersen | 24. februar 2008 | 16:08

Multimediedesigneruddannelsen skal laves om, og man skal kunne tage et ekstra år, så man kan komme på bachelorniveau.

PROSA har skrevet en artikel omhandlende uddannelserne datamatiker, multimediedesign og IT-økonom. Heri er en opsumering af hvordan det står til med et lovforslag, som allerede burde have været trådt i kraft fra starten af 2008. Grundet folketingsvalget er lovforslaget dog stadig på en eller anden politikers skrivebord sammen med en masse andre papirer. Eller sådan virker det i hvert fald, set udefra.

Artiklen er interessant for studerende på de føromtalte uddannelser. Jeg vil kun komme ind på multimediedesigneruddannelsen i denne artikel.

Forslaget går på, at uddannelsen skal handle mere om interaktion og visualisering, og mindre om virksomhed og kommunikation. Derudover skal der laves en overbygningsuddannelse, der gør det muligt for multimediedesignere at komme op på bachelorniveau. Sådan som PROSA fremlægger sagen, tyder det på at revideringen omkring emnefokuseringen kan træde i kraft “allerede” fra august 2008. Dog er der stadig usikkerhed omkring bacheloren, men det afhæger af hvor hurtigt det nye lovforslag kan blive vedtaget.

Mit synspunkt

Selvom jeg er færdig som multimediedesigner til sommer i år, føler jeg stadig at jeg kan lære en helt masse mere indenfor områderne i uddannelsen.

Jeg ville ønske at uddannelsen indeholdte mere interaktion og design, ligesom det nye lovforslag også gerne vil have det. Derudover vil jeg også gerne have at uddannelsen varede et år eller to mere, da jeg som sagt føler at jeg kan lære meget mere. Så for mit vedkommen lyder en overbygningsuddannelse super.

Læs PROSA’s fulde artikel.

kommentarer
11 Kommentarer »
Kategorier
Multimediedesigner
RSS Kommentarer RSS Kommentarer

WebDesign måleværktøj: Screen Calipers

Kim Andersen | 23. februar 2008 | 18:25

Som jeg skrev i går, havde jeg fundet er stykke værktøj kaldet ColorPic til at “fange” farve direkte fra skærmen.

Men faktisk er der flere nyttige værktøjer på http://www.iconico.com. Bl.a. har de lavet et værktøj der ligesom ColorPic gør det lettere for webdesignere, i hvert fald for mig, at arbejde. Værktøjet hedder Screen Calipers, og er et måleværktøj som man kan bruge direkte fra man åbner programmet.

Før i tiden tog jeg screenshot og åbnede Photoshop, for så at sidde med markerings værktøjet, hvis jeg skulle måle noget på skærmen. Men nu er det hele meget lettere 🙂

Jeg har uploaded en version af Screen Calipers på min server som du kan hente her.

Det er ikke den nyeste version, men ligesom med ColorPic er det en version som kan det man har brug for, og så behøver den ikke installation. Det bliver ikke meget lettere.

Den kan måle vandret og lodret, og så kan man skifte farven, afhængig af hvilken farve man skal måle på, så den er lettere at se.

Der findes også en ny version af Screen Calipers på http://www.iconico.com/caliper/.

Forskellen er, at man for det første skal installere denne version. Dernæst er det en trial version (som man godt nok kan have gratis forevigt, det siger de også selv). Men der er så begrænset muligheder indtil man registrere sig og betaler.

Selvom man har den som trial, kan man stadig måle vandret og lodret. I den nye version kan man også måle på skrå, og det kan man måske godt få brugt for. Dog kan man ikke måle i en ret stor vinkel når man har trial versionen.

Men prøv det selv, det kan spare dig for en masse tid og bøvl.

Forresten har de flere smarte værktøjer inde på http://www.iconico.com, som man kan hente kvit og frit. Bl.a. et program kaldet EasyRead, som man installerer og så kan man på en hvilken som helst hjemmeside gøre tekst, og nogle steder billeder, større og mindre.

Også WebTools Pro lyder til at være ret smart, da man kan installere programmet, og så har man mulighed for en helt masse funktioner som angår webdesign, bl.a. se sit arbejde i forskellige opløsninger og mange andre ting. Dog er dette også en prøve-udgave hvis man ikke betaler, så der er begrænsede muligheder.

kommentarer
2 Kommentarer »
Kategorier
Webdesign tips og tricks
RSS Kommentarer RSS Kommentarer

  • Side 13 af 14
  • <
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • >

CoolShop.dk
Bodylab
MuscleHouse
Bodyman
Bodystore

Seneste Kommentarer

  • Simon fra Besvaret.dk:
  • Jeg kan stadig huske da jeg spillede dette spil på Google. Er der nogen...
  • - - - - - - - - - -
  • Joakim:
  • Jeg arbejder selv med SEO, og måske dette forum kunne få øjnene op for min hjemmeside,...
  • - - - - - - - - - -
  • Bengt:
  • Tackar för tipsen!
  • - - - - - - - - - -
  • Rene:
  • Tak for din venlighed og tak for link. Rigtig dejlig dag
  • - - - - - - - - - -
  • Jakob Kvorning:
  • Super ide som jeg håber flere vil benytte. I kunne også tilmelde jer på...
  • - - - - - - - - - -

Kategorier

  • Affiliate Marketing (1)
  • Alt andet (16)
  • Database og Normalisering (3)
  • Digital Markedsføring (2)
  • E-handel (2)
  • Firefox (1)
  • Flash (1)
  • Gadgets (4)
  • Google (22)
  • Internet (9)
  • Multimediedesigner (2)
  • NFL (2)
  • Problemer ved programmering (1)
  • SEO (12)
  • Sitecore (1)
  • Tegnsæt (2)
  • Twitter (4)
  • umbraco (8)
  • Web 2.0 (9)
  • Webdesign tips og tricks (7)
  • Webudvikling (12)
  • Windows (3)
  • WordPress (12)

Meta

  • Log ind
  • Indlæg-RSS
  • Kommentar-RSS
  • WordPress.org