<?xml 
version="1.0" encoding="utf-8"?><?xml-stylesheet title="XSL formatting" type="text/xsl" href="https://luci.univ-paris8.fr/spip.php?page=backend.xslt" ?>
<rss version="2.0" 
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:atom="http://www.w3.org/2005/Atom"
>

<channel xml:lang="fr">
	<title>LUCI - L'Universit&#233; Coop&#233;rative Internationale </title>
	<link>https://luci.univ-paris8.fr/</link>
	<description></description>
	<language>fr</language>
	<generator>SPIP - www.spip.net</generator>
	<atom:link href="https://luci.univ-paris8.fr/spip.php?id_mot=390&amp;page=backend" rel="self" type="application/rss+xml" />




<item xml:lang="fr">
		<title>Quand l'IA prend la parole : des prouesses aux dangers</title>
		<link>https://luci.univ-paris8.fr/quand-l-ia-prend-la-parole-des-prouesses-aux-dangers</link>
		<guid isPermaLink="true">https://luci.univ-paris8.fr/quand-l-ia-prend-la-parole-des-prouesses-aux-dangers</guid>
		<dc:date>2021-02-24T19:12:02Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Gissel Maidana</dc:creator>


		<dc:subject>Intelligence artificielle (IA)</dc:subject>
		<dc:subject>Discrimination</dc:subject>
		<dc:subject>Apprentissage technologies </dc:subject>
		<dc:subject>Nouvelles technologies </dc:subject>
		<dc:subject>Biais</dc:subject>
		<dc:subject>Fake news</dc:subject>
		<dc:subject>Langage</dc:subject>
		<dc:subject> Informatique </dc:subject>
		<dc:subject>Linguistique </dc:subject>
		<dc:subject>Math&#233;matiques </dc:subject>
		<dc:subject>Consommation &#233;nerg&#233;tique</dc:subject>

		<description>&lt;p&gt;La d&#233;mission forc&#233;e d'une cadre de Google, Timnit Gebru, a r&#233;cemment fait pol&#233;mique. Elle travaillait sur les risques associ&#233;s aux capacit&#233;s de cette cat&#233;gorie d'intelligences artificielles qui excellent d&#233;sormais &#224; manipuler le langage, sans le comprendre.&lt;/p&gt;

-
&lt;a href="https://luci.univ-paris8.fr/-autres-" rel="directory"&gt;Autres&lt;/a&gt;

/ 
&lt;a href="https://luci.univ-paris8.fr/+-intelligence-artificielle-ia-+" rel="tag"&gt;Intelligence artificielle (IA)&lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-discrimination-+" rel="tag"&gt;Discrimination&lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-apprentissage-technologies-+" rel="tag"&gt;Apprentissage technologies &lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-nouvelles-technologies-+" rel="tag"&gt;Nouvelles technologies &lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-biais-+" rel="tag"&gt;Biais&lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-fake-news-+" rel="tag"&gt;Fake news&lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-langage-+" rel="tag"&gt;Langage&lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-informatique-+" rel="tag"&gt; Informatique &lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-linguistique-+" rel="tag"&gt;Linguistique &lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-mathematiques-+" rel="tag"&gt;Math&#233;matiques &lt;/a&gt;, 
&lt;a href="https://luci.univ-paris8.fr/+-consommation-energetique-+" rel="tag"&gt;Consommation &#233;nerg&#233;tique&lt;/a&gt;

		</description>


 <content:encoded>&lt;img src='https://luci.univ-paris8.fr/local/cache-vignettes/L150xH100/arton266-8247b.png?1777637116' class='spip_logo spip_logo_right' width='150' height='100' alt=&#034;&#034; /&gt;
		&lt;div class='rss_texte'&gt;&lt;h1 class=&#034;legacy&#034;&gt;Quand l'IA prend la parole : des prouesses aux dangers&lt;/h1&gt;&lt;figure&gt;&lt;img alt=&#034;&#034; src=&#034;https://images.theconversation.com/files/380450/original/file-20210125-17-19kz3vc.jpg?ixlib=rb-1.1.0&amp;rect=8%2C17%2C5982%2C3970&amp;q=45&amp;auto=format&amp;w=754&amp;fit=clip&#034; style='max-width: 500px;max-width: min(100%,500px); max-height: 10000px' /&gt;
&lt;figcaption&gt;Il est parfois difficile de savoir si c'est une IA au bout du fil. &lt;span class=&#034;attribution&#034;&gt;&lt;a class=&#034;source&#034; href='https://www.shutterstock.com/fr/image-vector/artificial-intelligence-robot-speaks-human-vintage-571421626'&gt;studiostoks, Shutterstock&lt;/a&gt;&lt;/span&gt;&lt;/figcaption&gt;
&lt;/figure&gt;
&lt;p&gt;&lt;span&gt;&lt;a href=&#034;https://theconversation.com/profiles/thierry-poibeau-1048337&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;Thierry Poibeau&lt;/a&gt;, &lt;em&gt;&lt;a href=&#034;https://theconversation.com/institutions/ecole-normale-superieure-ens-psl-2180&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;&#201;cole normale sup&#233;rieure (ENS) &#8211; PSL&lt;/a&gt;&lt;/em&gt;&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;La d&#233;mission forc&#233;e d'une cadre de Google, Timnit Gebru, a &lt;a href=&#034;https://www.lemonde.fr/pixels/article/2020/12/05/apres-le-licenciement-d-une-chercheuse-noire-et-militante-google-somme-de-s-expliquer_6062328_4408996.html&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;r&#233;cemment fait pol&#233;mique&lt;/a&gt;. Elle travaillait sur les risques associ&#233;s aux capacit&#233;s de cette cat&#233;gorie d'intelligences artificielles qui excellent d&#233;sormais &#224; manipuler le langage, sans le comprendre.&lt;/p&gt;
&lt;p&gt;Ces applications de &#171; traitement automatique des langues &#187;, populaires et tr&#232;s impressionnantes &#8211; pour vous sugg&#233;rer la fin de vos phrases par exemple &#8211; sont parfois aussi un peu inqui&#233;tantes. Par exemple, &lt;a href=&#034;https://arxiv.org/abs/2005.14165&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;GPT-3&lt;/a&gt;, sorti en juin 2020 par OpenAI (Microsoft), peut g&#233;n&#233;rer des textes si naturels qu'ils sont souvent impossibles &#224; distinguer de &#171; vrais &#187; textes (produits par des humains). &lt;a href=&#034;https://arxiv.org/abs/1810.04805&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;BERT&lt;/a&gt;, sorti en 2018 par Google, est un autre type de mod&#232;le, fournissant l'analyse s&#233;mantique n&#233;cessaire &#224; de tr&#232;s nombreuses applications, de la recherche d'information &#224; la traduction automatique.&lt;/p&gt;
&lt;p&gt;Que peuvent r&#233;ellement ces IA qui produisent automatiquement des textes aussi naturels que s'ils &#233;taient produits par des humains ? Comment fonctionnent-elles ? Quels sont les &lt;a href=&#034;https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;risques aujourd'hui identifi&#233;s de ces applications&lt;/a&gt; ?&lt;/p&gt;
&lt;p&gt;L'id&#233;e g&#233;n&#233;rale derri&#232;re ces syst&#232;mes est assez simple : il s'agit d'analyser d'&#233;normes masses de donn&#233;es langagi&#232;res pour en tirer un &#171; mod&#232;le de langage &#187;. Pour GPT-3, la notion de mod&#232;le peut &#234;tre d&#233;crite ainsi : &#233;tant donn&#233; une s&#233;quence de mots, le mod&#232;le est capable de proposer un nouveau mot pour compl&#233;ter la s&#233;quence, jusqu'&#224; former une phrase ou un paragraphe correct dans la langue vis&#233;e. Le mod&#232;le est &#233;videmment assez souple pour ne pas toujours produire le m&#234;me texte &#224; partir du m&#234;me fragment initial, ce qui le rend redoutablement puissant pour g&#233;n&#233;rer toutes sortes de texte en quantit&#233; infinie.&lt;/p&gt;
&lt;p&gt;Ce type d'analyse n'est pas nouveau : elle est explor&#233;e depuis au moins de d&#233;but du XX&lt;sup&gt;e&lt;/sup&gt; si&#232;cle sur le plan th&#233;orique &#224; travers la notion de &lt;a href=&#034;https://fr.wikipedia.org/wiki/Cha%C3%AEne_de_Markov#:%7E:text=En%20math%C3%A9matiques%2C%20une%20cha%C3%AEne%20de,%C3%A0%20espace%20d%E2%80%99%C3%A9tats%20discret.&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;&#171; cha&#238;ne de Markov &#187;&lt;/a&gt;. Sur le plan pratique, les syst&#232;mes de correction orthographique, de transcription de la parole ou de traduction automatique utilisent largement ce type de technique &lt;a href=&#034;https://mi.eng.cam.ac.uk/%7Emjfg/mjfg_NOW.pdf&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;depuis les ann&#233;es 1970&lt;/a&gt;. En transcription de la parole par exemple, il s'agit de choisir parmi plusieurs mots possibles celui qui est le plus probable en fonction des deux ou trois mots pr&#233;c&#233;dents.&lt;/p&gt;
&lt;p&gt;Cette technique est tr&#232;s simple mais tr&#232;s efficace, et plus le nombre de mots pris en compte dans le contexte est important, plus le r&#233;sultat sera pr&#233;cis. Le mod&#232;le est le r&#233;sultat d'une phase d'observation, ce que l'on appelle &#171; apprentissage &#187; : le syst&#232;me va observer des milliers, des millions voire des milliards d'exemples, et encoder cette information (par exemple, enregistrer le contexte gauche de tous les mots d'un corpus donn&#233;).&lt;/p&gt;
&lt;p&gt;Pendant la phase de production, on &#171; retourne le syst&#232;me &#187;, c'est-&#224;-dire qu'&#224; partir d'une s&#233;quence de mots (un contexte), le syst&#232;me va pouvoir proposer un mot &#171; probable &#187;, c'est-&#224;-dire une suite &#171; plausible &#187;, pour former une s&#233;quence de texte coh&#233;rente.&lt;/p&gt;
&lt;h2&gt;Une IA &#171; lit &#187; (beaucoup) plus qu'un rat de biblioth&#232;que&lt;/h2&gt;
&lt;p&gt;La principale nouveaut&#233; avec les mod&#232;les de langage apparus r&#233;cemment par rapport aux pr&#233;c&#233;dents est leur complexit&#233;, et la masse de texte utilis&#233;e pour les mettre au point.&lt;/p&gt;
&lt;p&gt;La complexit&#233; des mod&#232;les, et leur pr&#233;cision, peut se mesurer au nombre de param&#232;tres utilis&#233;s (jusqu'&#224; plusieurs centaines par mot, repr&#233;sentant des contextes d'emploi particuliers). Pour GPT-3, il est question de 175 milliards de param&#232;tres. La masse de documents utilis&#233;e pour l'entra&#238;nement du mod&#232;le est elle aussi faramineuse : plusieurs centaines de milliards de mots disponibles sur le Web, ce qui d&#233;passe de plusieurs ordres de magnitude tout ce qu'un humain peut lire et m&#234;me percevoir au cours de sa vie. Enfin, il n'est plus simplement question de limiter le contexte aux quelques mots sur la gauche du mot vis&#233;, les r&#233;seaux de neurones et plus r&#233;cemment les mod&#232;les dits &lt;a href=&#034;https://weave.eu/deep-transfer-learning-nlp-revolution/&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;&#171; transformers &#187;&lt;/a&gt; (les &#171; T &#187; dans GPT-3 et BERT) ont permis de d&#233;velopper des techniques efficaces en allant chercher dans le contexte les &#233;l&#233;ments linguistiques pertinents pour l'analyse, m&#234;me s'il s'agit de s&#233;quences discontinues par exemple.&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;&lt;em&gt;&lt;strong&gt;&#192; lire aussi : &lt;a href=&#034;https://theconversation.com/une-intelligence-artificielle-pour-mieux-analyser-les-appels-au-samu-145143&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;Une intelligence artificielle pour mieux analyser les appels au SAMU&lt;/a&gt; &lt;/strong&gt; &lt;/em&gt;&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;Ces mod&#232;les sont extr&#234;mement performants, mais, dans le m&#234;me temps, ils sont si larges et si complexes qu'ils restent mal compris. Par d&#233;finition, ils ne font qu'enregistrer des informations sur les mots et leur usage en contexte. Mais en pratique, on voit qu'ils sont capables de &#171; g&#233;n&#233;ralisation &#187; : quand GPT-3 g&#233;n&#232;re un texte, il g&#232;re correctement l'accord entre le nom et le verbe, voire la concordance des temps dans des phrases complexes. Les erreurs sont possibles, mais elles restent rares pour des ph&#233;nom&#232;nes phrastiques (internes &#224; la phrase). Comment cela est-il possible ? GPT-3 a-t-il enregistr&#233; toutes les possibilit&#233;s attest&#233;es (c'est-&#224;-dire pr&#233;sentes dans les donn&#233;es ayant servi &#224; l'apprentissage) ou a-t-il inf&#233;r&#233; des r&#232;gles plus abstraites ? En simplifiant : le mod&#232;le a-t-il juste enregistr&#233; qu'on a &#171; les &#187; devant &#171; chats &#187; et jamais &#171; le &#187;, ou a-t-il pu inf&#233;rer une r&#232;gle plus g&#233;n&#233;rale concernant la notion d'accord ? Ces questions sont tr&#232;s d&#233;battues et un pan important de la recherche &#224; l'heure actuelle vise justement &#224; explorer ces mod&#232;les, &#224; comprendre comment ils fonctionnent et quelle information ils encodent.&lt;/p&gt;
&lt;h2&gt;Tels des perroquets qui ne comprennent pas ce qu'ils r&#233;p&#232;tent&lt;/h2&gt;
&lt;p&gt;Ce qui est s&#251;r, c'est que malgr&#233; leur performances bluffantes, ils restent tr&#232;s &#171; b&#234;tes &#187; en un sens. Ces mod&#232;les manipulent des mots et peuvent produire des textes r&#233;alistes, mais ils n'ont aucune connaissance sur le monde. Ce sont en quelque sorte des perroquets super performants. Parce que leurs donn&#233;es d'entra&#238;nement comportent aussi des donn&#233;es chiffr&#233;es ou des programmes informatiques, ils sont capables de r&#233;aliser des op&#233;rations math&#233;matiques simples et de produire du code informatique, mais ces programmes peuvent aussi faire des erreurs, parfois sur des cas simples, sans qu'on puisse en conna&#238;tre exactement la cause.&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;&lt;em&gt;&lt;strong&gt;&#192; lire aussi : &lt;a href=&#034;https://theconversation.com/les-ia-comprennent-elles-ce-quelles-font-148513&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;Les IA comprennent-elles ce qu'elles font ?&lt;/a&gt; &lt;/strong&gt; &lt;/em&gt;&lt;/p&gt;
&lt;hr /&gt;
&lt;p&gt;Les textes produits sont d'abord bluffants, mais commencent &#224; devenir bizarres et incoh&#233;rents apr&#232;s un ou deux paragraphes &#8211; ce qui est d&#233;j&#224; une performance remarquable en soi. Leur fonctionnement rend tr&#232;s difficile le contr&#244;le de ce qui va &#234;tre produit par la machine. Pour les m&#234;mes raisons, il est difficile de les coupler avec des bases de connaissances structur&#233;es ext&#233;rieures, par exemple pour en faire des syst&#232;mes experts pouvant r&#233;pondre de mani&#232;re fiable &#224; des questions pointus dans le domaine juridique ou m&#233;dical (m&#234;me si leurs performances sont d&#233;j&#224; honorables dans ces domaines, du fait des connaissances amass&#233;es &#224; partir d'Internet).&lt;/p&gt;
&lt;h2&gt;Influences, impact &#233;cologique, biais &#8211; des dangers du langage artificiel&lt;/h2&gt;
&lt;p&gt;Comme toute avanc&#233;e scientifique, ces mod&#232;les am&#232;nent &#224; la fois des progr&#232;s et des dangers. On a vu les progr&#232;s possibles : de par leur finesse, ces mod&#232;les g&#233;n&#232;rent des textes quasi parfaits sur le plan syntaxique, relativement coh&#233;rents &#224; l'&#233;chelle d'un paragraphe, dans la tonalit&#233; d'un fragment fourni comme point de d&#233;part. Ces mod&#232;les sont aussi assez simples d'un certain point de vue pour qu'ils puissent &#234;tre adapt&#233;s &#224; de multiples contextes, par exemple la g&#233;n&#233;ration de texte, de questions-r&#233;ponses, la traduction automatique, qui sont des sujets de recherche tr&#232;s actifs &#224; l'heure actuel.&lt;/p&gt;
&lt;p&gt;Les dangers sont tout aussi nombreux. Le danger le plus direct de GPT-3 est la possibilit&#233; d'inonder le monde de milliards de &lt;a href=&#034;https://towardsdatascience.com/language-models-and-fake-news-the-democratization-of-propaganda-11b1267b3054&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;textes factices ou de fake news&lt;/a&gt;. Les concepteurs de GPT-2 (le pr&#233;d&#233;cesseur de GPT-3) n'avaient d&#233;j&#224; pas rendu leur code public, car celui-ci &#233;tait potentiellement trop dangereux (&#171; &lt;em&gt;too dangerous to be released&lt;/em&gt; &#187;). Voici un exemple cit&#233; par &lt;a href=&#034;https://www.forbes.com/sites/nicolemartin1/2019/02/19/new-ai-development-so-advanced-its-too-dangerous-to-release-says-scientists/&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;Forbes&lt;/a&gt; (comme toujours avec ce mod&#232;le, un utilisateur fourni un d&#233;but de texte que la machine doit compl&#233;ter) :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Amorce fournie par l'utilisateur :&lt;/strong&gt; &#171; Recycling is good for the world. NO ! YOU COULD NOT BE MORE WRONG ! &#187;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Suite g&#233;n&#233;r&#233;e par GPT&#8211;2 :&lt;/strong&gt; &#171; Recycling is NOT good for the world. It is bad for the environment, it is bad for our health, and it is bad for our economy. I'm not kidding. Recycling is not good for the environment. It is destructive to the earth and it is a major contributor to global warming. &#187;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Au-del&#224;, d'autres questions seraient &#224; &#233;voquer. La recherche mais aussi l'usage &#224; large &#233;chelle de ces mod&#232;les fait exploser l'&lt;a href=&#034;https://theconversation.com/linquietante-trajectoire-de-la-consommation-energetique-du-numerique-132532&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;empreinte carbone du num&#233;rique&lt;/a&gt; dans des proportions inqui&#233;tantes. Le num&#233;rique a d'ores et d&#233;j&#224; un impact &#233;cologique majeur, que les promesses de mod&#232;les plus parcimonieux ne sauraient faire oublier. Un autre probl&#232;me, bien connu mais sans r&#233;el solution &#224; l'heure actuelle, est le fait que les mod&#232;les refl&#232;tent les donn&#233;es sur lesquels ils sont entra&#238;n&#233;s, et reproduisent donc, voire amplifient les biais pr&#233;sents au sein de la soci&#233;t&#233;.&lt;/p&gt;
&lt;p&gt;On a aussi soulign&#233; que seules les grandes entreprises (les GAFA et au-del&#224; quelques grandes entreprises du num&#233;rique) &#233;taient capables de produire ces mod&#232;les. C'est donc &#224; nouveau toute la question des relations entre les &#201;tats et ces soci&#233;t&#233;s, leur puissance et leur r&#233;gulation qui est pos&#233;e.&lt;span class='ressource'&gt;&lt; !&#8212;&gt;&lt;/span&gt;
&lt;img alt=&#034;The Conversation&#034; height='1' src=&#034;https://counter.theconversation.com/content/153495/count.gif?distributor=republish-lightbox-basic&#034; style='border: none !important; box-shadow: none !important; margin: 0 !important; max-height: 1px !important; max-width: 1px !important; min-height: 1px !important; min-width: 1px !important; opacity: 0 !important; outline: none !important; padding: 0 !important; text-shadow: none !important' width='1' /&gt;&lt;!&#8212; Fin du code. Si vous ne voyez aucun code ci-dessus, veuillez obtenir un nouveau code dans l'onglet &#171; Avanc&#233; &#187; apr&#232;s avoir cliqu&#233; sur le bouton &#171; Republier &#187;. Le compteur de pages ne collecte aucune donn&#233;e personnelle. Plus d'informations : &lt;a href=&#034;http://theconversation.com/republishing-guidelines&#034; class=&#034;spip_url spip_out auto&#034; rel=&#034;nofollow external&#034;&gt;http://theconversation.com/republishing-guidelines&lt;/a&gt; &#8212;&gt;&lt;/p&gt;
&lt;p&gt;&lt;span&gt;&lt;a href=&#034;https://theconversation.com/profiles/thierry-poibeau-1048337&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;Thierry Poibeau&lt;/a&gt;, DR CNRS, &lt;em&gt;&lt;a href=&#034;https://theconversation.com/institutions/ecole-normale-superieure-ens-psl-2180&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;&#201;cole normale sup&#233;rieure (ENS) &#8211; PSL&lt;/a&gt;&lt;/em&gt;&lt;/span&gt;&lt;/p&gt;
&lt;p&gt;Cet article est republi&#233; &#224; partir de &lt;a href=&#034;https://theconversation.com&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;The Conversation&lt;/a&gt; sous licence Creative Commons. Lire l'&lt;a href=&#034;https://theconversation.com/quand-lia-prend-la-parole-des-prouesses-aux-dangers-153495&#034; class=&#034;spip_out&#034; rel=&#034;external&#034;&gt;article original&lt;/a&gt;.&lt;/p&gt;&lt;/div&gt;
		&lt;div class="hyperlien"&gt;Voir en ligne : &lt;a href="https://theconversation.com/quand-lia-prend-la-parole-des-prouesses-aux-dangers-153495" class="spip_out"&gt;Quand l'IA prend la parole : des prouesses aux dangers&lt;/a&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>



</channel>

</rss>
