Preparazione Dei Dati RSS per LLM
A volte i dati RSS arrivano in modo incoerente o sovraccarico, quindi è necessario ridurre ogni articolo all'essenziale affinché l'LLM possa generare ogni volta un tweet pulito. L'obiettivo è semplice: ogni articolo deve raggiungere l'LLM in una forma pulita e compatta che si trasformi in un singolo tweet.
- Aggregare un piccolo feed e verificare se l'LLM riesce a gestirlo;
- Se la mappatura risulta poco fluida, normalizzare con un nodo Code;
- Iterare sugli elementi con una dimensione batch di 1 in modo che ogni articolo venga elaborato in un singolo tweet.
Inizia aggregando il feed in piccoli batch. Usa Aggregate per combinare tutti gli elementi in un'unica lista, creando un elemento che contiene un array di circa 25 articoli in formato JSON. Questo ti offre una configurazione rapida e a bassa complessità. Testa questo risultato aggregato con il tuo LLM mappando l'array nel campo Context. Se l'output appare poco chiaro o incoerente, passa alla normalizzazione.
Per normalizzare, copia un campione del JSON RSS e chiedi al tuo LLM di produrre un nodo Code che rimuova l'HTML, estragga la prima URL dell'immagine, standardizzi i campi come title, text, url, guid e publishedAt, elimini i titoli quasi duplicati e restituisca un elemento pulito per articolo come array. Posiziona questo nodo Code subito dopo il nodo RSS o RSS Read.
Successivamente, sostituisci il percorso di aggregazione con un loop. Usa Loop o Split in Batches con una dimensione batch di uno per emettere un articolo alla volta, ideale per generare un singolo tweet per passaggio. Infine, aggiungi il tuo modello di chat all'interno del loop, mappa il testo normalizzato dell'articolo (e qualsiasi hook) nel Context e fornisci una breve e chiara istruzione di sistema per tono e stile del tweet.
Grazie per i tuoi commenti!
Chieda ad AI
Chieda ad AI
Chieda pure quello che desidera o provi una delle domande suggerite per iniziare la nostra conversazione
Can you explain how to set up the Code node for normalization?
What should I do if the LLM output is still inconsistent after normalization?
How do I handle token errors when sending articles to the LLM?
Awesome!
Completion rate improved to 4.17
Preparazione Dei Dati RSS per LLM
Scorri per mostrare il menu
A volte i dati RSS arrivano in modo incoerente o sovraccarico, quindi è necessario ridurre ogni articolo all'essenziale affinché l'LLM possa generare ogni volta un tweet pulito. L'obiettivo è semplice: ogni articolo deve raggiungere l'LLM in una forma pulita e compatta che si trasformi in un singolo tweet.
- Aggregare un piccolo feed e verificare se l'LLM riesce a gestirlo;
- Se la mappatura risulta poco fluida, normalizzare con un nodo Code;
- Iterare sugli elementi con una dimensione batch di 1 in modo che ogni articolo venga elaborato in un singolo tweet.
Inizia aggregando il feed in piccoli batch. Usa Aggregate per combinare tutti gli elementi in un'unica lista, creando un elemento che contiene un array di circa 25 articoli in formato JSON. Questo ti offre una configurazione rapida e a bassa complessità. Testa questo risultato aggregato con il tuo LLM mappando l'array nel campo Context. Se l'output appare poco chiaro o incoerente, passa alla normalizzazione.
Per normalizzare, copia un campione del JSON RSS e chiedi al tuo LLM di produrre un nodo Code che rimuova l'HTML, estragga la prima URL dell'immagine, standardizzi i campi come title, text, url, guid e publishedAt, elimini i titoli quasi duplicati e restituisca un elemento pulito per articolo come array. Posiziona questo nodo Code subito dopo il nodo RSS o RSS Read.
Successivamente, sostituisci il percorso di aggregazione con un loop. Usa Loop o Split in Batches con una dimensione batch di uno per emettere un articolo alla volta, ideale per generare un singolo tweet per passaggio. Infine, aggiungi il tuo modello di chat all'interno del loop, mappa il testo normalizzato dell'articolo (e qualsiasi hook) nel Context e fornisci una breve e chiara istruzione di sistema per tono e stile del tweet.
Grazie per i tuoi commenti!