IA et A.L.I.C.E - Version imprimable +- JeuWeb - Crée ton jeu par navigateur (https://jeuweb.org) +-- Forum : Général (https://jeuweb.org/forumdisplay.php?fid=36) +--- Forum : Blabla (https://jeuweb.org/forumdisplay.php?fid=42) +--- Sujet : IA et A.L.I.C.E (/showthread.php?tid=3011) |
RE: IA et A.L.I.C.E - Jeckel - 11-01-2011 Le système ALICE n'apprend pas tout seul... En fait, toutes les discussion sont loggée et depuis l'administration, le créateur peur lui apprendre en "corrigeant" la réponse qu'il a donné une première fois. Et je pense que c'est mieux comme ça... Après avec un Program-E par exemple, il y a moyen de lui adjoindre des plugins, sans doute que dans ce cas il peut peut-être apprendre tout seul... RE: IA et A.L.I.C.E - Argorate - 11-01-2011 Je dirais même plus, il est plutôt dangereux de laisser le système "apprendre" tout seul ce genre de chose car il peut tout aussi bien apprendre de travers en effet il s'il commence a faire des raccourci du genre "crèche = maison" c'est pas forcement une bonne égalité, on perd les nuances, cela marchera dans certain cas mais pas forcement dans tous, tu vois se que je veux dire? Donc bon, je suis mitigé sur le fait de donner la faculté d'apprendre au bot, c'est assez délicat je trouve... RE: IA et A.L.I.C.E - djidi - 11-01-2011 Et c'est aussi prendre un risque que des joueurs le pourrissent avec des mots qui n'ont rien à voir RE: IA et A.L.I.C.E - Jeckel - 11-01-2011 Par contre, lui donner la possibilité de stocker des informations RP peut être utile... un joueur dit au bot où se trouve la princesse, le joueur suivant récupère l'information quand il demande où est la princesse (par exemple) RE: IA et A.L.I.C.E - Ter Rowan - 11-01-2011 ok pour Alice cependant plus généralement l'apprentissage se fait via des fonctions mathématiques suite à une validation de la réponse par l'utilisateur typiquement (bon pas un exemple de jeu mais...) humain1 : de quelle couleur est le ciel ? ordi : je ne connais pas la couleur de le ciel. Connaissez vous la réponse ? (dans un jeu on pourrait imaginer que l'ordi garde en tête la question et la pose à une autre personne, histoire de ne pas avoir l'air "bête") humain1 : rouge ==> l'algorithme stocke "q = couleur ciel; r = rouge; nombre de réponses = 1) humain2 : de quelle couleur est le ciel ? ordi : je ne suis pas sur de moi (nb réponses faible) mais je dirais rouge ! Etes vous d'accord avec moi ? humain2 : non ordi : quelle est la réponse alors ? humain 2 : bleu ==> l'algorithme stocke "q = couleur ciel; r = rouge; nombre de réponses = 1) ==> l'algorithme stocke "q = couleur ciel; r = bleu; nombre de réponses = 1) humain3 : de quelle couleur est le ciel ? ordi : je ne suis pas sur de moi (nb réponses faible) j'hésite entre rouge et bleu ! Quelle est la réponse alors ? humain 3 : bleu ==> l'algorithme stocke "q = couleur ciel; r = rouge; nombre de réponses = 1) ==> l'algorithme stocke "q = couleur ciel; r = bleu; nombre de réponses = 2) etc ... humain198855 : de quelle couleur est le ciel ? ==> en mémoire "q = couleur ciel; r = rouge; nombre de réponses = 1) ==> en mémoire "q = couleur ciel; r = bleu; nombre de réponses = 198853) ordi : bien évidemment bleu ! là l'algo est très couillon mais apprends en fonction de divers paramètres (exclusion d'une réponse si proba trop faible, type de réponse fonction de la proba, etc..) il existe des systèmes d'apprentissage bien plus évolué, j'avais (il y a 13 ans maintenant) bossé en école sur l'apprentissage de Bayes qui était assez intéressant pour certaines choses (je vous laisse chercher dans wiki) ce qu 'il faut bien voir, c'est que l'apprentissage n'est pas "dès qu'un gus donne la réponse, la vérité est cette réponse" mais plutôt la "vérité" est la réponse la plus fréquemment donnée parmi les gens du cercle de confiance. Si on vous disait depuis la naissance que le ciel est rouge, quelle réponse donneriez vous ? que feriez vous si un type, inconnu, vous disait alors que le ciel est bleu ? si maintenant dans un jeu, tout le monde dit que le ciel est de couleur hyjuyil.. et bien c'est que le ciel est hyjuyil ça peut même ouvrir la porte à un langage/référence de lieu/etc... unique au jeu créé par la communauté (tout dépend si on en a la volonté bien sûr) RE: IA et A.L.I.C.E - Jeckel - 11-01-2011 Clairement, ce que tu décris n'est pas implémenté dans le programme ALICE. D'un autre côté, là, il s'agit d'apprendre sur "l'environnement", ce qui peut sans doute se faire avec l'adjonction de plugins... pour ce qui est d'apprendre à parler, c'est autre chose... Dans ton exemple, le bot a déjà compris que dans "de quelle couleur est le ciel ?" il doit donner l'information "couleur" associé à un objet "ciel", il a donc compris la syntaxe de la phrase, c'est l'étape suivante par rapport à ALICE où l'on galère déjà à lui faire comprendre la syntaxe. De plus, pour l'interprétation de la réponse, il dois pouvoir ramener plusieurs "format" de réponse à une même réponse simple Exemple : Alice : je ne connais pas la couleur de le ciel. Connaissez vous la réponse ? Humain : Bleu Humain : Oui Humain : Le ciel est bleu Humain : Du con, regarde au-dessus de tête, c'est bleu !! Humain : Il est bleu-clair le matin, parfois plutôt blanc l'après-midi, mais aujourd'hui il est plutôt gris, je crois même qu'il va pleuvoir, mais je ne suis pas météorologue Etc... RE: IA et A.L.I.C.E - Ter Rowan - 11-01-2011 tu as tout à fait raison je ne sais pas trop comment apprendre la syntaxe et la grammaire sur ce modèle là a part peut être via un processus de "reconnaissance" si l'orthographe est proche, si la discussion est similaire, on identifie la phrase de la base (ou le découpage) le plus proche dans la base/ Si il y a une négation , on inverse, etc... Alice : je ne connais pas la couleur de le ciel. Connaissez vous la réponse ? Humain : Bleu Humain : Oui ==> cas spécial : apprendre que oui n'est pas une réponse autre que binaire mais n'apporte pas d'information (pas d'apprentissage sans connaitre oui avant) Humain : Le ciel est bleu ==> ciel retrouvé dans la question, bleu déjà une autre réponse donc la même approximativement Humain : Du con, regarde au-dessus de tête, c'est bleu !! ==> idem bleu déjà dans une réponse, ca la confirme. Maintenant comment identifier que con, regarde audessus et tête ne sont pas des éléments de réponse, je ne sais pas Humain : Il est bleu-clair le matin, parfois plutôt blanc l'après-midi, mais aujourd'hui il est plutôt gris, je crois même qu'il va pleuvoir, mais je ne suis pas météorologue ==> là ça fait péter un casque dans tous les cas le système n'est pas simple à mettre en place, c'est évident RE: IA et A.L.I.C.E - NicoMSEvent - 11-01-2011 sinon, il y a ça : http://y.20q.net/anon-fr en 20 questions (réponses: oui/non), il trouve (en principe) ce a quoi tu penses... RE: IA et A.L.I.C.E - Jeckel - 11-01-2011 (11-01-2011, 04:00 PM)NicoMSEvent a écrit : sinon, il y a ça : http://y.20q.net/anon-fr Enfin ça c'est juste du parcours d'arbre en un peu plus poussé, c'est impressionnant, mais techniquement, le plus difficile est de choisir judicieusement les questions. RE: IA et A.L.I.C.E - Ter Rowan - 11-01-2011 oui c'est juste un arbre mais ils offrent trop de possibilités de réponse sans les exploiter typiquement j'ai pensé clavecin, il m'a trouvé piano au bout de 20 questions et après il a ramé, ou bien les questions étaient non pertinentes (de piano où j'ai dit presque, on est arrivé au bateau "vedette") leur modèle n'est donc pas si pertinent que cela j'étais tombé sur un système équivalent où - il obtenait plus vite la réponse avec un nombre de question qui n'était pas le même fonction de l'objet pensé (recherche de stratégie gagnante) - au bout d'un certain temps (l'équivalent de 20 ici) il proposait une réponse et si ce n'était pas la bonne, demandait la réponse ET la question qui permettait de séparer entre sa mauvaise réponse et la bonne exemple pour identifier martien de homme, il suffit de demander "la couleur de l'objet est elle verte ?" oui = martien, non = humain (jusqu'à la prochaine mauvaise réponse / apprentissage) je trouvais le système vachement efficace et plus percutant que ce dernier alors qu'il n'y avait que deux réponses (peut être trois ?) sans subtilité :oui, non (ne sait pas) à méditer l'introduction de subtilité peut rendre les réponses moins efficaces qu'un système un peu brutal cependant comme dit par Jeckel c'est juste un arbre : les réponses sont cadrées la vraie difficulté est l'interprétation de la réponse lorsque c'est un texte écrit par l'utilisateur |