snippets:html
This is an old revision of the document!
Table of Contents
Snippets: HTML
Grundgerüst
Features:
- Einige essenzielle Meta-Tags
- Print-Stylesheet
- Großes PNG-Favicon (Kein 32×32 Pixel Windows-Icon, der Internet Explorer ist längst Geschichte!)
- Grundgerüst für den Seiteninhalt: Header, Navigation in einer Seitenleiste, Inhalt und zum Schluss ein Footer
- html5-grundgeruest.html
<!DOCTYPE html> <html lang="de"> <!-- SPDX-License-Identifier: Unlicense --> <head> <meta charset="UTF-8"> <title>HTML-Grundgerüst</title> <meta name="viewport" content="width=device-width,initial-scale=1.0"> <meta name="author" content="Max Mustermann"> <link rel="stylesheet" href="/css/style.css"> <link rel="stylesheet" media="print" href="/css/print.css"> <link rel="icon" type="image/png" sizes="192x192" href="/favicon.png"> </head> <body id="top"> <header> <h1> <a href="/">Seitentitel</a> </h1> <h2>HTML5-Grundgerüst</h2> </header> <aside> <ul role="navigation"> <li><a href="/">Startseite</a></li> <li><a href="html5-grundgerüst.html" aria-current="page">HTML5 Grundgerst</a></li> </ul> </aside> <main> <article id="inhalt"> <h3>Lorem ipsum</h3> <p>Lorem ipsum dolor sit amet. […]</p> </article> </main> <footer> <p> <a href="#top">↑ Nach oben</a> </p> <p> © 2025 Max Mustermann • <a href="#">Impressum</a> </p> </footer> </body> </html>
Kleine Helfer: ''sitemap.xml'', ''robots.txt'' usw.
robots.txt
- Zugriff auf Teile der Webseite für Suchmaschinen-Crawler verbieten
- Die meisten großen Suchmaschinen halten sich daran, auch wenn sie es technisch nicht müssen (die Crawler der großen KIs interessiert das hingegen herzlich wenig …)
humans.txt
- Als Gegenstück zur
robots.txt
schlägt die humans.txt-Initiative eine über ein<link rel=“author”>
-Tag verlinkte Text-Datei vor, die Informationen über die an der Seite beteiligten Personen liefert. - Beispiele:
- google.com/humans.txt (sehr einfach gehalten, statt einzelne Personen zu nennen wird auf eine globale Teamarbeit hingewiesen — das entspricht zwar nicht ganz dem eigentlichen Zweck der
humans.txt
, ist IMHO aber eine gelungene Variante für ein großes Unternehmen)
sitemap.xml
- Unterstützt Suchmaschinen beim Crawling der Seite
- Eine maschinenlesbare Liste aller Unterseiten mit ihren kanonischen URLs
- Für jede Seite kann eine Priorität mit einem Wert von 0.0 bis 1.0 angegeben werden (Standard ist 0.5), um den Fokus des Crawlers auf Teilbereiche der Seite zu lenken
- Zusätzlich kann das Datum der letzten Änderung und die Aktualisierungs-Frequenz angegeben werden
.well-known/…
- Zahlreiche bei der IANA registrierte Dateien, durch die unabhängig von der verwendeten Software bestimmte Funktionen unter einer festgelegten URL bereit gestellt werden.
- Ein paar Beispiele:
- CalDAV/CardDAV (RFC6764)
- Automatisierte Passwort-Änderung direkt aus einem Passwort-Manager heraus
- Hinweise zum Umgang mit entdeckten Sicherheitslücken: E-Mail-Kontakt, GnuPG-Schlüssel und mehr in maschinenlesbarem Format, damit Sicherheitsforscher gefundene Lücken einfach und sicher melden können
snippets/html.1750877226.txt.gz · Last modified: by malte70