Torna alla Home Page del corso  Torna alla pagina degli Elaborati
 

 Elaborato del Corso di Intelligenza Artificiale a.a. 1998-1999
Agenti Intelligenti & Internet

  Allievi Elettronici

Claudio Carnevale
  Alessandro Pilotti
Matr. 030087
 Matr. 029833
carcla76@yahoo.com
alex.pilotti@numerica.it

 

Alcuni cenni

La recente, rapida crescita di Internet ha reso disponibile un’enorme mole di dati on-line. Al crescere del volume di informazioni, sono però cresciuti anche i problemi che gli utenti devono affrontare nell’interagire con i dati. Un tempo, l’unica sistema disponibile per la ricerca di informazioni sul WWW erano i motori di ricerca come Altavista, Yahoo, Lycos che ancora oggi sono largamente utilizzati. Tuttavia la loro inefficienza diventa sempre più marcata: riescono a coprire solo una piccolissima parte delle pagine disponibili sul Web ed inoltre a seguito di un interrogazione restituiscono un numero enorme di link di cui la maggior parte non ha alcuna attinenza con quanto richiesto. Navigare attraverso il Web diventa sempre più difficile e noioso: si spende più tempo a filtrare i link restituiti dai motori di ricerca piuttosto che a visitare le pagine.

Questi problemi non sono presenti solo in Internet, ma anche nelle grandi compagnie che possiedono database con gigabyte di informazioni memorizzate: nessuno è più in grado di determinare quali informazioni siano presenti e quali no nel database. Avere a disposizione una base di conoscenza immensa di dati, on-line, aperta a tutti, diventa del tutto inutile se non si hanno a disposizione metodi efficaci per la ricerca, l’analisi ed il filtraggio delle informazioni.

La struttura centralizzata dei motori di ricerca si scontra e si infrange contro la natura dinamica di Internet stesso, la natura dinamica delle informazioni presenti sul WWW e l’eterogeneità delle informazioni e dei servizi di informazione offerti da Internet.

Gli agenti intelligenti sono stati proposti come soluzione al problema: aiutano ed assistono l’utente svolgendo alcuni compiti ed inoltre sono in grado di apprendere ed adattarsi per migliorare la qualità del servizio offerto. Per agente intelligente, noi intendiamo qualsiasi cosa che agisce in base al nostro interesse e che è autonomo, orientato agli obiettivi, flessibile ed in grado di comunicare e di adattarsi alle preferenze dell’utente.

I principali settori in cui gli agenti intelligenti vengono utilizzati sono:
 
 

Molti scienziati ritengono che la struttura di Internet debba essere ridisegnata in modo da rendere il suo utilizzo più semplice e conveniente, così da astrarsi dalle varie tecniche che sono nascoste sotto la sua superficie. Un tipo di astrazione paragonabile al modo in cui i linguaggi di programmazione di alto livello riescono a celare ai programmatori l’hardware di basso livello del calcolatore. Gli agenti intelligenti dovrebbero porsi fra gli utenti ed i fornitori di servizi così da costituire uno strato intermedio con lo scopo di rendere più flessibile la struttura di Internet.

Gli agenti intelligenti, al contrario dei motori di ricerca, sfruttano i concetti base dell’intelligenza artificiale, come la rappresentazione della conoscenza e l’apprendimento, per rendere più semplice ed efficace la navigazione su Internet. Poter inserire la conoscenza direttamente all’interno del codice HTML porterebbe molti vantaggi, consentendo ad es. di generare interrogazioni precise al contrario delle richieste eseguite basandosi su una o più parole chiave.

Anche le tecniche di apprendimento risultano fondamentali per l’agente: a partire da una minima conoscenza di base, esso impara dall’utente e dagli altri agenti. Viene sviluppato un profilo delle preferenze dell’utente consentendo all’agente di adattarsi ai cambiamenti del comportamento dell’utente.

Applicazioni

Fino ad oggi sono stati sviluppati molti agenti intelligenti, fra cui i più importanti sono: Internet Softbot, Shopbot, SavvySearch, Ahoy!, WebWatcher, SysKill & Webert e Occam.
 
 

L’Internet Softbot (robot software, anche conosciuto con il nome Rodney) è il capostipite di una delle più importanti famiglie di agenti intelligenti: il suo progetto iniziò nel 1991 all’università di Washington, sotto la guida di Oren Etzioni (www.cs.washington.edu/homes/etzioni ), uno dei maggiori esperti nel settore, e di Daniel Weld. Softbot opera come un assistente personale: a fronte di una richiesta (di alto livello) di un utente, l’agente usa procedure di ricerca e di inferenza e la sua conoscenza per stabilire come soddisfare la richiesta. L’obiettivo principale di Rodney è di gestire le risorse cui l’utente può accedere nel modo più semplice possibile, permettendo di specificare i suoi obiettivi in una notazione simile al linguaggio naturale.
 
 

ShopBot aiuta l’utente a decidere quale prodotto acquistare, trova descrizioni e recensioni sui prodotti, dà all’utente consigli inerenti agli acquisti, compara i venditori di un prodotto per estrapolare quello che garantisce il prezzo minore, controlla le offerte speciali e gli sconti. ShopBot è indipendente dal prodotto da ricercare, infatti per ricercare un prodotto in un nuovo dominio, basta fornirgli una descrizione del dominio.
 
 

SavvySearch (www.savvysearch.com) è un meta-motore di ricerca: il suo scopo principale è di effettuare in modo efficiente richieste ad altri motori di ricerca (è in grado di identificare quali sono i motori di ricerca più appropriati per particolari interrogazioni). I suoi obiettivi sono: massimizzare la probabilità di restituire buoni link e minimizzare il consumo di risorse computazionali e di rete.
 
 

Ahoy! consente di trovare l’home-page di una persona. È più efficiente dei motori di ricerca tradizionali (Altavista, HotBot, Yahoo): permette di trovare in modo veloce le home-page che gli altri motori non riescono a raggiungere.
 
 

WebWatcher guida l’utente lungo un appropriato percorso attraverso il WWW, sulla base degli interessi della persona, della collocazione e della rilevanza del materiale e sul modo in cui altri utenti hanno interagito con i dati in passato. Suggerisce i link che l’utente dovrebbe seguire: il sistema impara osservando le reazioni dell’utente ai suoi consigli e l’eventuale successo o fallimento delle azioni dell’utente.
 
 

SysKill & Webert è un agente intelligente che genera un profilo degli interessi dell’utente e usa questo profilo per identificare le pagine Web che possono interessare all’utente. Utilizza un semplice classificatore bayesiano per determinare la probabilità di successo di un link.
 
 

Occam riceve in input un insieme di descrizioni di siti e una richiesta dell’utente e restituisce uno o più piani che specificano i diversi modi per rispondere alla richiesta. Utilizza un algoritmo di pianificazione efficiente ed indipendente dal contesto, ragiona sulle capacità delle varie fonti di informazione e può soddisfare goal parziali.
 
 

Riassunto degli articoli introduttivi  Riassunto articoli sugli Agenti





Download relazione Agenti Intelligenti & Internet
 
 
 
 

Presentazione
 
 

Torna alla pagina degli Elaborati