<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Commentaires sur : Pour une république algorithmique : nationalisons le code !	</title>
	<atom:link href="https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/feed/" rel="self" type="application/rss+xml" />
	<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/</link>
	<description>Le blog d&#039;un maître de conférences en sciences de l&#039;information. ISSN 2260-1856</description>
	<lastBuildDate>Wed, 01 Jun 2016 00:28:47 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>
		Par : J.-M. K.		</title>
		<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/#comment-7143</link>

		<dc:creator><![CDATA[J.-M. K.]]></dc:creator>
		<pubDate>Wed, 01 Jun 2016 00:28:47 +0000</pubDate>
		<guid isPermaLink="false">https://affordance.framasoft.org/2016/05/30/nationaliser-code-republique-algorithmique/#comment-7143</guid>

					<description><![CDATA[Bonjour.
Bel article :) Deux ou trois remarques  en vrac.
+) La re-captation de code est une des différences fondamentales entre le code ouvert à la sauce &quot;open-source&quot; et celui ouvert à la mode  GNU (Stallman/FSF).
+) Les photocopieurs savent depuis quelques temps détecter les tentatives de photocopies de billets de banque:).
+) les logiciels en Europe ne peuvent pas être brevetés, c&#039;est une différence fondamentale avec les U.S qu&#039;il faut conserver. D&#039;ailleurs cela pose un problème pour la &quot;valorisation&quot; de la recherche appliquée en informatique puisqu&#039;il s&#039;agit de recherche technique sans brevet : voilà un foutu indicateur ANR qui tombe ....
]]></description>
			<content:encoded><![CDATA[<p>Bonjour.<br />
Bel article 🙂 Deux ou trois remarques  en vrac.<br />
+) La re-captation de code est une des différences fondamentales entre le code ouvert à la sauce « open-source » et celui ouvert à la mode  GNU (Stallman/FSF).<br />
+) Les photocopieurs savent depuis quelques temps détecter les tentatives de photocopies de billets de banque:).<br />
+) les logiciels en Europe ne peuvent pas être brevetés, c&rsquo;est une différence fondamentale avec les U.S qu&rsquo;il faut conserver. D&rsquo;ailleurs cela pose un problème pour la « valorisation » de la recherche appliquée en informatique puisqu&rsquo;il s&rsquo;agit de recherche technique sans brevet : voilà un foutu indicateur ANR qui tombe &#8230;.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Yann		</title>
		<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/#comment-7142</link>

		<dc:creator><![CDATA[Yann]]></dc:creator>
		<pubDate>Tue, 31 May 2016 22:21:32 +0000</pubDate>
		<guid isPermaLink="false">https://affordance.framasoft.org/2016/05/30/nationaliser-code-republique-algorithmique/#comment-7142</guid>

					<description><![CDATA[Encore du neurone à moudre avec cet article. J&#039;abonde dans le sens de Mr Claude Roux ci-dessus. Il vaut mieux avoir un algo. moyen à itérer sur des grands volumes de données qu&#039;un algo. excellent qui se fait la dent sur des volumes plus faibles. La masse du big data est donc bien l&#039;enjeu. Et évidemment les GAFA comme toujours essaient de tirer partie de leurs bases d&#039;utilisateurs pour faire le boulot à leur place (avec cette livraison de code). Mais ils sont tellement pressés que le principe de précaution lié à la marge d&#039;erreur de ces traitements de données s&#039;envole en fumée devant les bénéfices à faire. Et ça, c&#039;est pas nouveau mais plus ça va, moins ce principe de précaution, ou toute forme de recul d&#039;ailleurs, est appliqué.
Quant au nombre de critères qui sont pris en compte par l&#039;algo du moteur de recherche, c&#039;est plus 200 que 400 (ce sont les googlers eux-même qui le disent).
]]></description>
			<content:encoded><![CDATA[<p>Encore du neurone à moudre avec cet article. J&rsquo;abonde dans le sens de Mr Claude Roux ci-dessus. Il vaut mieux avoir un algo. moyen à itérer sur des grands volumes de données qu&rsquo;un algo. excellent qui se fait la dent sur des volumes plus faibles. La masse du big data est donc bien l&rsquo;enjeu. Et évidemment les GAFA comme toujours essaient de tirer partie de leurs bases d&rsquo;utilisateurs pour faire le boulot à leur place (avec cette livraison de code). Mais ils sont tellement pressés que le principe de précaution lié à la marge d&rsquo;erreur de ces traitements de données s&rsquo;envole en fumée devant les bénéfices à faire. Et ça, c&rsquo;est pas nouveau mais plus ça va, moins ce principe de précaution, ou toute forme de recul d&rsquo;ailleurs, est appliqué.<br />
Quant au nombre de critères qui sont pris en compte par l&rsquo;algo du moteur de recherche, c&rsquo;est plus 200 que 400 (ce sont les googlers eux-même qui le disent).</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Phifeu		</title>
		<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/#comment-7141</link>

		<dc:creator><![CDATA[Phifeu]]></dc:creator>
		<pubDate>Tue, 31 May 2016 20:14:31 +0000</pubDate>
		<guid isPermaLink="false">https://affordance.framasoft.org/2016/05/30/nationaliser-code-republique-algorithmique/#comment-7141</guid>

					<description><![CDATA[Ce n&#039;est pas le code qu&#039;il faut nationaliser, ce sont les GAFA elles-mêmes. La rentabilité de ces sites dépasse l&#039;entendement.
]]></description>
			<content:encoded><![CDATA[<p>Ce n&rsquo;est pas le code qu&rsquo;il faut nationaliser, ce sont les GAFA elles-mêmes. La rentabilité de ces sites dépasse l&rsquo;entendement.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Claude Roux		</title>
		<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/#comment-7140</link>

		<dc:creator><![CDATA[Claude Roux]]></dc:creator>
		<pubDate>Tue, 31 May 2016 12:52:32 +0000</pubDate>
		<guid isPermaLink="false">https://affordance.framasoft.org/2016/05/30/nationaliser-code-republique-algorithmique/#comment-7140</guid>

					<description><![CDATA[Tout d&#039;abord, une toute petite remarque, le Deep Learning n&#039;est que le ré-empaquetage sexy des réseaux neuronaux. L&#039;ensemble des algos qui tournent aujourd&#039;hui a été inventé il y a près de trente ans, et l&#039;article fondateur date de 1998. Nihil nove sub sole. Ce qui a changé la donne, c&#039;est essentiellement la puissance de calcul (et en particulier l&#039;utilisation plutôt astucieuse des co-processeurs graphiques) qui a permis de faire tourner ces algos sur des quantités absolument phénoménales de données. Ici, nous n&#039;avons pas assisté à un changement de qualité mais de quantité. Par conséquent que les GAFAM mettent à disposition des algos anciens difficilement brevetables n&#039;a rien de surprenant. Les réseaux neuronaux sont basés sur des calculs matriciels couplés à une descente de gradient. Rien de très pointu en matière d&#039;informatique.
Enfin, le Machine Learning ou Apprentissage Automatique, est un ensemble de technique dont les réseaux neuronaux sont un aspect, les deux termes ne sont donc pas équivalents.
Pour moi, il existe un danger encore plus grave dans l&#039;utilisation de ces outils, c&#039;est que l&#039;on ignore systématique leurs marges d&#039;erreur. Il existe un danger non négligeable que l&#039;on finisse pas ne pas remettre en cause leurs oracles et qu&#039;ont les prenne systématiquement pour des jugements sûrs. Or ces outils sont faillibles, ils dépendent tellement des données initiales d&#039;entrainement que le simple fait de les entraîner introduit déjà un biais.
]]></description>
			<content:encoded><![CDATA[<p>Tout d&rsquo;abord, une toute petite remarque, le Deep Learning n&rsquo;est que le ré-empaquetage sexy des réseaux neuronaux. L&rsquo;ensemble des algos qui tournent aujourd&rsquo;hui a été inventé il y a près de trente ans, et l&rsquo;article fondateur date de 1998. Nihil nove sub sole. Ce qui a changé la donne, c&rsquo;est essentiellement la puissance de calcul (et en particulier l&rsquo;utilisation plutôt astucieuse des co-processeurs graphiques) qui a permis de faire tourner ces algos sur des quantités absolument phénoménales de données. Ici, nous n&rsquo;avons pas assisté à un changement de qualité mais de quantité. Par conséquent que les GAFAM mettent à disposition des algos anciens difficilement brevetables n&rsquo;a rien de surprenant. Les réseaux neuronaux sont basés sur des calculs matriciels couplés à une descente de gradient. Rien de très pointu en matière d&rsquo;informatique.<br />
Enfin, le Machine Learning ou Apprentissage Automatique, est un ensemble de technique dont les réseaux neuronaux sont un aspect, les deux termes ne sont donc pas équivalents.<br />
Pour moi, il existe un danger encore plus grave dans l&rsquo;utilisation de ces outils, c&rsquo;est que l&rsquo;on ignore systématique leurs marges d&rsquo;erreur. Il existe un danger non négligeable que l&rsquo;on finisse pas ne pas remettre en cause leurs oracles et qu&rsquo;ont les prenne systématiquement pour des jugements sûrs. Or ces outils sont faillibles, ils dépendent tellement des données initiales d&rsquo;entrainement que le simple fait de les entraîner introduit déjà un biais.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : c.		</title>
		<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/#comment-7139</link>

		<dc:creator><![CDATA[c.]]></dc:creator>
		<pubDate>Tue, 31 May 2016 11:46:34 +0000</pubDate>
		<guid isPermaLink="false">https://affordance.framasoft.org/2016/05/30/nationaliser-code-republique-algorithmique/#comment-7139</guid>

					<description><![CDATA[je découvre votre blog via l´article sur rue 89. Merci, je me sens deja plus instruite que ce matin.
]]></description>
			<content:encoded><![CDATA[<p>je découvre votre blog via l´article sur rue 89. Merci, je me sens deja plus instruite que ce matin.</p>
]]></content:encoded>
		
			</item>
		<item>
		<title>
		Par : Hubert Guillaud		</title>
		<link>https://affordance.framasoft.org/2016/05/nationaliser-code-republique-algorithmique/#comment-7138</link>

		<dc:creator><![CDATA[Hubert Guillaud]]></dc:creator>
		<pubDate>Tue, 31 May 2016 09:01:34 +0000</pubDate>
		<guid isPermaLink="false">https://affordance.framasoft.org/2016/05/30/nationaliser-code-republique-algorithmique/#comment-7138</guid>

					<description><![CDATA[Si les Gafam ouvrent leurs logiciels de machine learning et pas les algorithmes qui font fonctionner leurs services, c&#039;est certainement qu&#039;il y a des différences de fonds.
Ce peut-être lié au fait que la valeur ne repose pas dans le logiciel, mais dans les données qui les alimentent (qui elles, restent fermées, comme le soulignait Wired :&lt;a href=&quot;http://www.wired.com/2015/11/google-open-sourcing-tensorflow-shows-ais-future-is-data-not-code/&quot; rel=&quot;nofollow ugc&quot;&gt;http://www.wired.com/2015/11/google-open-sourcing-tensorflow-shows-ais-future-is-data-not-code/&lt;/a&gt; ).
Est-ce lié à une guerre du code et des développeurs que se livrent les grandes firmes entre elles ? &lt;a href=&quot;http://alireailleurs.tumblr.com/post/129900264468/la-guerre-du-code-medium&quot; rel=&quot;nofollow ugc&quot;&gt;http://alireailleurs.tumblr.com/post/129900264468/la-guerre-du-code-medium&lt;/a&gt;
Est-ce lié à la différence entre un programme originel et son fonctionnement réel, qui dépend de multiples autres données et surtout d&#039;équipes dédiées, de gestionnaires d&#039;algorithmes, comme les équipes, chargés chez chacun de veiller à corriger les algorithmes, à les faire fonctionner (à l&#039;image des pallanquées de professeurs chargés d&#039;aider les élèves à faire fonctionner Affelnet ou APB) ? &lt;a href=&quot;http://alireailleurs.tumblr.com/post/141246307693/g%C3%A9rer-les-ruptures-new-york-times&quot; rel=&quot;nofollow ugc&quot;&gt;http://alireailleurs.tumblr.com/post/141246307693/g%C3%A9rer-les-ruptures-new-york-times&lt;/a&gt;
Voir aussi par là : &lt;a href=&quot;http://www.internetactu.net/2016/01/13/nos-systemes-pour-une-retroingenierie-des-systemes-techniques/&quot; rel=&quot;nofollow ugc&quot;&gt;http://www.internetactu.net/2016/01/13/nos-systemes-pour-une-retroingenierie-des-systemes-techniques/&lt;/a&gt;
]]></description>
			<content:encoded><![CDATA[<p>Si les Gafam ouvrent leurs logiciels de machine learning et pas les algorithmes qui font fonctionner leurs services, c&rsquo;est certainement qu&rsquo;il y a des différences de fonds.<br />
Ce peut-être lié au fait que la valeur ne repose pas dans le logiciel, mais dans les données qui les alimentent (qui elles, restent fermées, comme le soulignait Wired :<a href="http://www.wired.com/2015/11/google-open-sourcing-tensorflow-shows-ais-future-is-data-not-code/" rel="nofollow ugc">http://www.wired.com/2015/11/google-open-sourcing-tensorflow-shows-ais-future-is-data-not-code/</a> ).<br />
Est-ce lié à une guerre du code et des développeurs que se livrent les grandes firmes entre elles ? <a href="http://alireailleurs.tumblr.com/post/129900264468/la-guerre-du-code-medium" rel="nofollow ugc">http://alireailleurs.tumblr.com/post/129900264468/la-guerre-du-code-medium</a><br />
Est-ce lié à la différence entre un programme originel et son fonctionnement réel, qui dépend de multiples autres données et surtout d&rsquo;équipes dédiées, de gestionnaires d&rsquo;algorithmes, comme les équipes, chargés chez chacun de veiller à corriger les algorithmes, à les faire fonctionner (à l&rsquo;image des pallanquées de professeurs chargés d&rsquo;aider les élèves à faire fonctionner Affelnet ou APB) ? <a href="http://alireailleurs.tumblr.com/post/141246307693/g%C3%A9rer-les-ruptures-new-york-times" rel="nofollow ugc">http://alireailleurs.tumblr.com/post/141246307693/g%C3%A9rer-les-ruptures-new-york-times</a><br />
Voir aussi par là : <a href="http://www.internetactu.net/2016/01/13/nos-systemes-pour-une-retroingenierie-des-systemes-techniques/" rel="nofollow ugc">http://www.internetactu.net/2016/01/13/nos-systemes-pour-une-retroingenierie-des-systemes-techniques/</a></p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>

<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/?utm_source=w3tc&utm_medium=footer_comment&utm_campaign=free_plugin

Mise en cache de page à l’aide de Disk: Enhanced 
Chargement différé (feed)
Minified using APC

Served from: affordance.framasoft.org @ 2026-04-27 07:33:23 by W3 Total Cache
-->