Torna alla Home Page del corso Torna alla pagina degli Elaborati Successiva

 

 Elaborato del Corso di Intelligenza Artificiale
a.a. 1998-1999

Agenti Intelligenti & Internet

Articoli sugli agenti analizzati

Pagina 3
 

Titolo: Syskill & Webert: Identifying interesting web sites

Autori: Michael J. Pazzani, Jack Muramatsu & Daniel Billsus

Fonte: http://www.ics.uci.edu/~pazzani/pubblications/aiii-webert.pdf

Riassunto

In questo articolo si introducono i concetti che stanno alla base di Syskill & Webert, un agente intelligente che genera un profilo di un utente per un dato argomento e lo utilizza per segnalare all’utente le pagine che potrebbero interessargli. Syskill & Webert può essere utilizzato in due modi: in primo luogo si può specificare (o definire manualmente) una pagina indice che verrà utilizzata come punto di partenza per la navigazione "guidata" da Syskill & Webert (la pagina indice contiene solitamente un numero piuttosto elevato di link inerenti o meno all’argomento); il secondo modo consiste nell’utilizzare l’agente come filtro per le query di Lycos. In questo secondo caso Syskill & Webert può suggerire all’utente anche altri link oltre a quelli indicati nell’indice.

Nell’utilizzare l’agente partendo dalla pagina indice, bisognerà specificare per alcuni link il grado di interesse (molto, discreto, scarso) ed in seguito Syskill & Webert consiglierà i rimanenti link affiancando ad essi un’icona che indica soddisfazione o meno ed un numero (tra 0 e 1) che indica la probabilità che quel sito interessi o meno quell’utente.

Nel caso di query Lycos, Syskill & Webert affiancherà ad ogni link restituito dal motore di ricerca una probabilità indicante il gradimento possibile dell’utente sulla base del profilo determinato precedentemente.

In questo articolo è presente anche una comparazione tra vari algoritmi di apprendimento che possono essere utilizzati per generare il profilo dell’utente che ha portato alla scelta di un semplice classificatore bayesiano.

 

 

 

Titolo: Category Translation: Learning to understand information on the Internet

Autori: Mike Perkovitz & Oren Etzioni

Fonte: ftp://ftp.cs.washington.edu/pub/map/papers/category-translation.ps

Riassunto

Questo articolo pone l’attenzione sul problema dell’apprendimento automatico delle caratteristiche delle fonti di informazione disponibili nel WWW. In particolare gli autori parlano di ILA, un programma indipendente dal suo dominio di utilizzo che apprende queste caratteristiche gestendole in termini di categorie interne.

Con ILA si cerca un metodo di classificazione delle fonti di informazione che non dipenda strettamente dal programmatore che implementa l’agente: si vuole in pratica rendere l’agente in grado di apprendere autonomamente le caratteristiche di nuove fonti di informazioni. Tali caratteristiche riguardano principalmente i metodi di accesso ai meccanismi di ricerca e il formato dei risultati restituiti da tali servizi.

ILA utilizza un sottoinsieme della logica del primo ordine come linguaggio di rappresentazione delle informazioni e il suo meccanismo di apprendimento si basa sul metodo di St. Augustine [Wittgenstein, 1958]. Questo metodo è molto semplice da spiegare con un esempio: si immagini di dover imparare il significato della parola latina UXOR. Qualcuno potrebbe aiutarci fornendoci un esempio del tipo "Anita era la UXOR di Garibaldi". Sapendo che Anita era il nome della moglie di Garibaldi, si può dedurre che UXOR e la parola latina che corrisponde a MOGLIE. In pratica ILA funziona allo stesso modo, utilizzando come esempi le risposte dei servizi di ricerca ad opportune query di default.

 

 


Torna alla pagina degli Elaborati Successiva