Torna alla Home Page del corso
Torna alla pagina degli Elaborati
Successiva
Elaborato del Corso di Intelligenza Artificiale |
Agenti Intelligenti & Internet Articoli Introduttivi Sull'argomento |
Pagina 1
Titolo: Exploiting Learning technologies for World Wide Web agents
Autori: P.Edwards, C.L.Green, P.C.Lockier, T.C. Lukins
Fonte:
ftp://ftp.csd.abdn.ac.uk/pub/pedwards/pubs/ieee97.psRiassunto
In questo articolo, si introducono le tecniche di apprendimento per gli agenti con lo scopo di risolvere il problema di trattare un volume di informazioni immenso ed in continua evoluzione. Vengono spiegati gli approcci tradizionali che consentono di fornire ad un agente una conoscenza di base del suo dominio: il primo approccio consiste nel dare all’agente alcune regole che permettono di definire il suo comportamento; il secondo approccio fornisce all’agente un’ampia conoscenza specifica del dominio. Esiste inoltre un terzo approccio, più pratico e flessibile, che fornisce all’agente una minima conoscenza di base e tecniche per l’apprendimento in base al comportamento dell’utente. Vengono analizzati alcuni esempi di agenti che utilizzano il terzo approccio, fra cui i più interessanti sono LAW che aiuta l’utente a trovare informazioni interessanti, dopo aver generato due profili dell’utente, ed ELVIS che consente di ottenere informazioni sui viaggi, in particolare sugli hotel, ristoranti, musei, …
Titolo: Moving up the information food chain
Autore: Oren Etzioni
Fonte: AI Magazine (Estate 1997)
Riassunto
Viene presentata la gerarchia dei servizi di informazione su Internet, a partire dai motori di ricerca come Altavista e Yahoo che sono definiti erbivori di informazioni fino ad arrivare agli assistenti personali come Ahoy! e MetaCrawler, i carnivori di informazioni, che utilizzano tecniche intelligenti per il reperimento di informazioni. Viene presentato in dettaglio Softbot (robot software), mettendo in evidenza le differenze fondamentali con i classici motori di ricerca; vengono infine analizzati gli altri agenti che appartengono al progetto Softbot, cioè MetaCrawler, Ahoy!, Shopbot e Jango che rispettano i requisiti di robustezza e velocità. Ogni softbot deve essere responsabile di determinare quali servizi invocare per poter rispondere alla richiesta dell’utente.