Intégration Obsidian

Ce qui rend la note ingérable par votre vault.

Chaque ligne du fichier répond à un mécanisme qu'Obsidian sait exploiter. Glissez le .md, tout s'aligne.

  1. 01

    Frontmatter YAML typé

    Le panneau Properties d'Obsidian 1.4+ reconnaît les champs, les type (texte, date, URL, liste), et les expose dans le sidebar. Dataview et Bases requêtent sur ces clés. Sans frontmatter, la note est illisible par vos outils d'indexation.

    ---
    title: Intro to neural networks
    source: https://youtu.be/...
    channel: Andrej Karpathy
    published: 2024-01-14
    language: en
    output_language: en
    tags: [youtube, transcript, karpathy]
    ---
  2. 02

    Callouts natifs

    La syntaxe [!abstract] est spécifique à Obsidian. Elle rend une boîte stylée avec icône « résumé », distincte du texte autour. GitHub, Logseq, VSCode affichent juste une blockquote. C'est le marqueur visuel qui signale la densité du document.

    > [!abstract] Résumé
    > Karpathy construit un micrograd
    > pour expliquer la backprop.
  3. 03

    Timestamps qui reprennent la vidéo

    Le lien youtu.be/ID?t=N ouvre le player pile à la seconde. Combiné au plugin Iframes, vous incrustez directement la vidéo dans la note et naviguez chapitre par chapitre sans quitter Obsidian.

    ### 2. Joint embedding · [14:21](https://youtu.be/abc?t=861)
  4. 04

    Ancres partagées pour la transclusion

    Les sections « Chapitres » et « Transcript » utilisent exactement les mêmes titres. Depuis une autre note, vous faites ![[video#2. Joint embedding]] et le bloc s'embed en live. Vous citez un chapitre dans votre MOC sans tout dupliquer.

    Depuis une autre note :
    
    ![[video#2. Joint embedding]]
  5. 05

    Nom de fichier anti-collision

    Le suffixe <video_id> garantit qu'aucune note n'écrase une autre, même sur deux conférences homonymes. Vous traitez « Intro to AI » dix fois dans l'année, chaque note reste distincte.

    intro-to-neural-networks-xm4K1l9O4qY.md