Synthetica est un recueil de textes parlant, témoignant et questionnant la place des intelligences artificielles génératives et des modes d’automatisation dans les domaines de la création graphique et artistique, publiés entre 2000 et 2023.
Ce recueil réunit les principes de livre dont vous êtes l’héro·ïne et de l’hyperlien. Il vous invite à une lecture non-linéaire guidée par l’index injecté au cœur même du texte.
Pour renforcer cette expérience, ainsi qu’insister sur son aspect informatif, la conception graphique rejoue les codes de Wikipédia.
Synthetica est bilingue : il contient des articles en Anglais et des articles en Français.
Bonne lecture !
* * * *
Synthetica is a collection of texts speaking, testifying and questioning the roles of generative artificial intelligences and automation in the fields of arts and design, published between 2000 and 2023.
It plays with the mechanisms of choose your own adventure books and hyperlinks. It invites you to a non-linear reading experience guided by the index that lays within the text flow.
To emphasise this experience and its informative purposes, the design of the book mimics Wikipedia.
Synthetica is bilingual : it has both French and English texts.
Enjoy !
Graphic design and text picking : Kiara Jouhanneau Fonts : Linux Libertine (The Libertine Open Fonts Project), Deja Vu Sans (Deja Vu Fonts Project) and Fungal (Raphaël Bastide and Jérémy Landes)
Designed with paged.js
Code is law — On Liberty in Cyberspace
Lawrence Lessig, 2000
Traduit de l’Anglais par les équipes de Framalang en 2010
À chaque époque son institution de contrôle, sa menace pour les libertés. Nos Pères Fondateurs craignaient la puissance émergente du gouvernement fédéral ; la constitution américaine fut écrite pour répondre à cette crainte. John Stuart Mill s’inquiétait du contrôle par les normes sociales dans l’Angleterre du XIXe siècle ; il écrivit son livre De la Liberté en réaction à ce contrôle. Au XXe siècle, de nombreux progressistes se sont émus des injustices du marché. En réponse, furent élaborées réformes du marché et filets de sécurité.
Nous sommes à l’âge du cyberespace. Il possède lui aussi son propre régulateur, qui lui aussi menace les libertés. Mais, qu’il s’agisse d’une autorisation qu’il nous concède ou d’une conquête qu’on lui arrache, nous sommes tellement obnubilés par l’idée que la liberté est intimement liée à celle de gouvernement que nous ne voyons pas la régulation qui s’opère dans ce nouvel espace, ni la menace qu’elle fait peser sur les libertés.
Ce régulateur, c’est le code : le logiciel et le matériel qui font du cyberespace ce qu’il est. Ce code , ou cette architecture, définit la manière dont nous vivons le cyberespace. Il détermine s’il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l’accès à l’information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu’on commence à comprendre la nature de ce code , on se rend compte que, d’une myriade de manières, le code du cyberespace régule.
Cette régulation est en train de changer. Le code du cyberespace aussi. Et à mesure que ce code change, il en va de même pour la nature du cyberespace. Le cyberespace est un lieu qui protège l’anonymat, la liberté d’expression et l’autonomie des individus, il est en train de devenir un lieu qui rend l’anonymat plus difficile, l’expression moins libre et fait de l’autonomie individuelle l’apanage des seuls experts.
Mon objectif, dans ce court article, est de faire comprendre cette régulation, et de montrer en quoi elle est en train de changer. Car si nous ne comprenons pas en quoi le cyberespace peut intégrer, ou supplanter, certaines valeurs de nos traditions constitutionnelles, nous perdrons le contrôle de ces valeurs. La loi du cyberespace — le code — les supplantera.
Ce que contrôle le code
Le code élémentaire d’Internet est constitué d’un ensemble de protocoles appelé TCP/IP. Ces protocoles permettent l’échange de données entre réseaux interconnectés. Ces échanges se produisent sans que les réseaux aient connaissance du contenu des données, et sans qu’ils sachent qui est réellement l’expéditeur de tel ou tel bloc de données. Ce code est donc neutre à l’égard des données, et ignore tout de l’utilisateur.
Ces spécificités du TCP/IP ont des conséquences sur la régulabilité des activités sur Internet. Elles rendent la régulation des comportements difficile. Dans la mesure où il est difficile d’identifier les internautes, il devient très difficile d’associer un comportement à un individu particulier. Et dans la mesure où il est difficile d’identifier le type de données qui sont envoyées, il devient très difficile de réguler l’échange d’un certain type de données. Ces spécificités de l’architecture d’Internet signifient que les gouvernements sont relativement restreints dans leur capacité à réguler les activités sur le Net.
Dans certains contextes, et pour certaines personnes, cette irrégulabilité est un bienfait. C’est cette caractéristique du Net, par exemple, qui protège la liberté d’expression. Elle code l’équivalent d’un Premier Amendement dans l’architecture même du cyberespace, car elle complique, pour un gouvernement ou une institution puissante, la possibilité de surveiller qui dit quoi et quand. Des informations en provenance de Bosnie ou du Timor Oriental peuvent circuler librement d’un bout à l’autre de la planète car le Net empêche les gouvernements de ces pays de contrôler la manière dont circule l’information. Le Net les en empêche du fait de son architecture même.
Mais dans d’autres contextes, et du point de vue d’autres personnes, ce caractère incontrôlable n’est pas une qualité. Prenez par exemple le gouvernement allemand, confronté aux discours nazis, ou le gouvernement américain, face à la pédo-pornographie. Dans ces situations, l’architecture empêche également tout contrôle, mais ici cette irrégulabilité est considérée comme une tare.
Et il ne s’agit pas seulement des discours nazis et de pornographie enfantine. Les principaux besoins de régulation concerneront le commerce en ligne : quand l’architecture ne permet pas de transactions sécurisées, quand elle permet de masquer facilement la source d’interférences, quand elle facilite la distribution de copies illégales de logiciels ou de musique. Dans ces contextes, le caractère incontrôlable du Net n’est pas considéré comme une qualité par les commerçants, et freinera le développement du commerce.
Que peut-on y faire ?
Nombreux sont ceux qui pensent qu’il n’y a rien à faire : l’irrégulabilité d’Internet est définitive. Il n’est rien que nous puissions faire pour y remédier. Aussi longtemps qu’il existera, Internet restera un espace incontrôlable. C’est dans sa nature même.
Mais rien n’est plus dangereux pour l’avenir de la liberté dans le cyberespace que de croire la liberté garantie par le code . Car le code n’est pas figé. L’architecture du cyberespace n’est pas définitive. L’irrégulabilité est une conséquence du code , mais le code peut changer. D’autres architectures peuvent être superposées aux protocoles de base TCP/IP, et ces nouvelles couches peuvent rendre l’usage du Net fondamentalement contrôlable. Le commerce est en train de construire une architecture de ce type. Le gouvernement peut y aider. Les deux réunis peuvent transformer la nature même du Net. Il le peuvent, et le font.
Mais nous vivons à une époque de scepticisme à l’égard de la démocratie. Notre époque est obsédée par la non-intervention. Laissons Internet se développer comme les codeurs l’entendent, voilà l’opinion générale. Laissons l’état en dehors de ça.
Ce point de vue est compréhensible, vu la nature des interventions étatiques. Vu leurs défauts, il semble préférable d’écarter purement et simplement l’état. Mais c’est une tentation dangereuse, en particulier aujourd’hui.
Ce n’est pas entre régulation et absence de régulation que nous avons à choisir. Le code régule. Il implémente — ou non — un certain nombre de valeurs. Il garantit certaines libertés, ou les empêche. Il protège la vie privée, ou promeut la surveillance. Des gens décident comment le code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix — et donc dans la manière dont ces valeurs sont garanties — ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place.
Car c’est une évidence : quand l’état se retire, la place ne reste pas vide. Les intérêts privés ont des objectifs qu’ils vont poursuivre. En appuyant sur le bouton anti-étatique, on ne se téléporte pas au Paradis. Quand les intérêts gouvernementaux sont écartés, d’autres intérêts les remplacent. Les connaissons‑nous ? Sommes‑nous sûrs qu’ils sont meilleurs ?
Notre première réaction devrait être l’hésitation. Il est opportun de commencer par laisser le marché se développer. Mais, tout comme la Constitution contrôle et limite l’action du Congrès, les valeurs constitutionnelles devraient contrôler et limiter l’action du marché. Nous devrions examiner l’architecture du cyberespace de la même manière que nous examinons le fonctionnement de nos institutions.
Si nous ne le faisons pas, ou si nous n’apprenons pas à le faire, la pertinence de notre tradition constitutionnelle va décliner. Tout comme notre engagement autour de valeurs fondamentales, par le biais d’une constitution promulguée en pleine conscience. Nous resterons aveugles à la menace que notre époque fait peser sur les libertés et les valeurs dont nous avons hérité. La loi du cyberespace dépendra de la manière dont il est codé, mais nous aurons perdu tout rôle dans le choix de cette loi.
A short talk delivered at a gathering in Brighton by the Design Business Association in July 2023 on the topic of “Web3, AI and Design”.
Hello. I was asked by the Design Business Association to talk to you today about “web3 and AI.” I’d like to explain what those terms mean.
Web 3
Let’s start with “web3.” Fortunately I don’t have to come up with an explanation for this term because my friend Heydon Pickering has recorded a video entitled “what is web 3.0?”
What is web trois point nought?
Web uno dot zilch was/is a system of interconnected documents traversible by hyperlink.
However, web deux full stop nowt was/is a system of interconnected documents traversible by hyperlink.
On the other hand, web drei dot zilch is a system of interconnected documents traversible by hyperlink.
Should you wish to upgrade to web three point uno, expect a system of interconnected documents traversible by hyperlink.
If we ever get to web noventa y cinco, you can bet your sweet @rse, it will be a system of interconnected documents traversible by f*!king hyperlink.
There you have it. “Web3” is a completely meaningless term. If someone uses it, they’re probably trying to sell you something.
If you ask for a definition, you’ll get a response like “something something decentralisation something something blockchain.” As soon as someone mentions blockchain, you can tune out. It’s the classic example of a solution in search of a problem (although it’s still early days; it’s only been…more than a decade). I can give you a defintion of what a blockchain is. A blockchain is multiple copies of a spreadsheet.
I find it useful to be able to do mental substitions like that when it comes to buzzwords. Like, remember when everyone was talking about “the cloud” but no one was asking what that actually meant? Well, by mentally substituting “the cloud” with “someone else’s server” you get a much better handle on the buzzword.
So, with “web3” out of the way, we can move onto the next buzzword. AI.
AI
The letters A and I are supposed to stand for Artificial Intelligence. It’s a term that’s almost as old as digital computing itself. It goes right back to the 1950s.
These days we’d use the term Artificial General Intelligence — AGI — to talk about that original vision of making computers as smart as people. Vision is the right term here, because AGI remains a thought experiment. This is the realm of super intelligence: world-ending AI overlords; paperclip maximisers; Roko’s basilisk. These are all fascinating thought experiments but they’re in the same arena as speculative technologies like faster-than-light travel or time travel. I’m happy to talk about any of those theoretically-possible topics, but that’s not what we’re here to talk about today. When you hear about AI today, you’re probably hearing about specific technologies like large language models and machine learning.
Let’s take a look at large language models and their visual counterparts, diffusion models. They both work in the same way. You take a metric shit ton of data and you assign each one to a token. So you’ve got a numeric token that represents a bigger item: a phrase in a piece of text, or an object in an image . The author Ted Chiang used a really good analogy to describe this process when he said ChatGPT is like a blurry JPEG of the web. Just as image formats like JPG use compression to smush image data, these models use compression to smush data into tokens. By the way, the GPT part of ChatGPT stands for Generative Pre-trained Transformer. The pre-training is that metric shit ton of data I mentioned.
The generative part is about combining — or transforming — tokens in a way that should make probabalistic sense.
Terminology
Here’s some more terminology that comes up when people talk about these tools.
Overfitting. This is when the output produced by a generative pre-trained transformer is too close to the original data that fed the model. Another word for overfitting is plagiarism.
Hallucinations. People use this word when the output produced by a generative pre-trained transformer strays too far from reality. Another word for this is lying. Although the truth is that all of the output is a form of hallucination — that’s the generative part. Sometimes the output happens to match objective reality. Sometimes it doesn’t.
What about the term AI itself? Is there a more accurate term we could be using?
I’m going to quote Ted Chiang again. He proposes that a more accurate term is applied statistics. I like that. It points to the probabalistic nature of these tools: take an enormous amount of inputs, then generate something that feels similar based on implied correlations. I like to think of “AI” as a kind of advanced autocomplete. I don’t say that to denigrate it. Quite the opposite. Autocomplete is something that appears mundane on the surface but has an incredible amount of complexity underneath: real-time parsing of input, a massive database of existing language, and on-the-fly predictions of the next most suitable word. Large language models do the same thing, but on a bigger scale.
What is it good for?
So what is AI good for? Or rather, what is a language or diffusion model good for? Or what is applied statistics or advanced autocomplete good for?
Transformation. These tools are really good at transforming between formats. Text to speech. Speech to text. Text to images . Long form to short form. Short form to long form.
Think of transcripts. Summaries. These are smart uses of this kind of technology.
Coding, to a certain extent, can be considered a form of transformation. I’ve written books on programming, and I always advise people to first write out what they want in English. Then translate each line of English into the programming language. Large language models do a pretty good job of this right now, but you still need a knowledgable programmer to check the output for errors — there will be errors. (As for long-form and short-form text transformations, the end game may be an internet filled with large language models endlessly converting our written communications.)
When it comes to the design process, these tools are good at quantity, not quality. If you need to generate some lorem ipsum placeholder text — or images — go for it. What they won’t help with is problem definition. And it turns out that understanding and defining the problem is the really hard part of the design process. Use these tools for inputs, not outputs. I would never publish the output of one of these tools publicly. But I might use one of these tools at the beginning of the process to get over the blank page. If I want to get a bunch of mediocre ideas out of the way quickly, these tools can help.
There’s an older definition of the intialism AI that dairy farmers would be familiar with, when “the AI man” would visit the farm. In that context, AI stands for artificial insemination. Perhaps thats also a more helpful definition of AI tools in the design process. But, like I said, the outputs are not for public release. For one thing, the generated outputs aren’t automatically copyrighted. That’s only fair. Technically, it’s not your work. It is quite literally derivative.
Why all the hype?
Everything I’ve described here is potentially useful in some circumstances, but not Earth-shattering. So what’s with all the hype?
Venture capital. With this model of funding, belief in a technology’s future matters more than the technology’s actual future.
We’ve already seen this in action with self-driving cars, the metaverse, and cryptobollocks. Reality never matched the over-inflated expectations but that made no difference to the people profiting from the investments in those technologies (as long as they make sure to get out in time).
The hype around AI is benefiting from a namespace clash. Remember, AI as in applied statistics or advanced autocomplete has nothing in common with AI as in Artificial General Intelligence. But because the same term is applied to both, the AI hype machine can piggyback on the AGI discourse. It’s as if we decided to call self-driving cars “time machines ” — we’d be debating the ethics of time travel as though it were plausible.
For a refreshing counter-example, take a look at what Apple is saying about AI. Or rather, what it isn’t saying. In the most recent Apple keynote, the term AI wasn’t mentioned once.
Technology blogger Om Malik wrote: One of the most noticeable aspects of the keynote was the distinct lack of mention of AI or ChatGPT. I think this was a missed marketing opportunity for the company.
I couldn’t disagree more. Apple is using machine learning a-plenty: facial recognition, categorising your photos, and more. But instead of over-inflating that work with the term AI, they stick to the more descriptive term of machine learning. I think this will pay off when the inevitable hype crash comes. Other companies, that have tied their value to the mast of AI will see their stock prices tank. But because Apple is not associating themselves with that term, they’re well positioned to ride out that crash.
What should you do?
Alright, it’s time for me to wrap this up with some practical words of advice.
Beware of the Law of the instrument. You know the one: when all you have is a hammer, everything looks a nail. There’s a corollary to that: when the market is investing heavily in hammers, everyone’s going to try to convince you that the world is full of nails. See if you can instead cultivate a genuine sense of nailspotting. It should ring alarm bells if you find yourself thinking “how can I find a use for this technology?” Rather, spend your time figuring out what problem you’re trying to solve and only then evaluate which technologies might help you.
Never make any decision out of fear. FOMO — Fear Of Missing Out — has been weaponised again and again, by crypto, by “web3”, by “AI”. The message is always the same: “don’t get left behind!” “It’s inevitable!” they cry. But you know what’s genuinely inevitable? Climate change. So maybe focus your energy there.
AI is killing the old web, and the new web struggles to be born
Generative AI models are changing the economy of the web, making it cheaper to span. generate lower-quality content. We’re just beginning to see the effects of these changes.
In recent months, the signs and portents have been accumulating with increasing speed. Google is trying to kill the 10 blue links. Twitter is being abandoned to bots and blue ticks. There’s the junkification of Amazon and the enshittification of TikTok. Layoffs are gutting online media. A job posting looking for an “AI editor” expects “output of 200 to 250 articles per week.” ChatGPT is being used to generate whole spam sites. Etsy is flooded with “AI-generated junk.” Chatbots cite one another in a misinformation ouroboros. LinkedIn is using AI to stimulate tired users. Snapchat and Instagram hope bots will talk to you when your friends don’t. Redditors are staging blackouts. Stack Overflow mods are on strike. The Internet Archive is fighting off data scrapers, and “AI is tearing Wikipedia apart.” The old web is dying, and the new web struggles to be born. The web is always dying, of course; it’s been dying for years, killed by apps that divert traffic from websites or algorithms that reward supposedly shortening attention spans. But in 2023, it’s dying again — and, as the litany above suggests, there’s a new catalyst at play: AI.
AI is overwhelming the internet’s capacity for scale
The problem, in extremely broad strokes, is this. Years ago, the web used to be a place where individuals made things. They made homepages, forums, and mailing lists, and a small bit of money with it. Then companies decided they could do things better. They created slick and feature-rich platforms and threw their doors open for anyone to join. They put boxes in front of us, and we filled those boxes with text and images , and people came to see the content of those boxes. The companies chased scale, because once enough people gather anywhere, there’s usually a way to make money off them. But AI changes these assumptions.
Given money and compute, AI systems — particularly the generative models currently in vogue — scale effortlessly. They produce text and images in abundance, and soon, music and video, too. Their output can potentially overrun or outcompete the platforms we rely on for news, information, and entertainment. But the quality of these systems is often poor, and they’re built in a way that is parasitical on the web today. These models are trained on strata of data laid down during the last web-age, which they recreate imperfectly. Companies scrape information from the open web and refine it into machine-generated content that’s cheap to generate but less reliable. This product then competes for attention with the platforms and people that came before them. Sites and users are reckoning with these changes, trying to decide how to adapt and if they even can.
In recent months, discussions and experiments at some of the web’s most popular and useful destinations — sites like Reddit, Wikipedia, Stack Overflow, and Google itself — have revealed the strain created by the appearance of AI systems .
Reddit’s moderators are staging blackouts after the company said it would steeply increase charges to access its API, with the company’s execs saying the changes are (in part) a response to AI firms scraping its data. “The Reddit corpus of data is really valuable,” Reddit founder and CEO Steve Huffman told The New York Times. “But we don’t need to give all of that value to some of the largest companies in the world for free.” This is not the only factor — Reddit is trying to squeeze more revenue from the platform before a planned IPO later this year — but it shows how such scraping is both a threat and an opportunity to the current web, something that makes companies rethink the openness of their platforms.
Google is remaking search by placing AI-generated answers ahead of data sources. Screenshot by Jay Peters / The Verge
Wikipedia is familiar with being scraped in this way. The company’s information has long been repurposed by Google to furnish “knowledge panels,” and in recent years, the search giant has started paying for this information. But Wikipedia’s moderators are debating how to use newly capable AI language models to write articles for the site itself. They’re acutely aware of the problems associated with these systems , which fabricate facts and sources with misleading fluency, but know they offer clear advantages in terms of speed and scope. “The risk for Wikipedia is people could be lowering the quality by throwing in stuff that they haven’t checked,” Amy Bruckman, a professor of online communities and author of Should You Believe Wikipedia? told Motherboard recently. “I don’t think there’s anything wrong with using it as a first draft, but every point has to be verified.”
“The primary problem is that while the answers which ChatGPT produces have a high rate of being incorrect, they typically look like they might be good.”
Stack Overflow offers a similar but perhaps more extreme case. Like Reddit, its mods are also on strike, and like Wikipedia’s editors, they’re worried about the quality of machine-generated content. When ChatGPT launched last year, Stack Overflow was the first major platform to ban its output. As the mods wrote at the time: “The primary problem is that while the answers which ChatGPT produces have a high rate of being incorrect, they typically look like they might be good and the answers are very easy to produce.” It takes too much time to sort the results, and so mods decided to ban it outright.
The site’s management, though, had other plans. The company has since essentially reversed the ban by increasing the burden of evidence needed to stop users from posting AI content, and it announced it wants to instead take advantage of this technology. Like Reddit, Stack Overflow plans to charge firms that scrape its data while building its own AI tools — presumably to compete with them. The fight with its moderators is about the site’s standards and who gets to enforce them. The mods say AI output can’t be trusted, but execs say it’s worth the risk.
All these difficulties, though, pale in significance to changes taking place at Google. Google Search underwrites the economy of the modern web, distributing attention and revenue to much of the internet. Google has been spurred into action by the popularity of Bing AI and ChatGPT as alternative search engines, and it’s experimenting with replacing its traditional 10 blue links with AI-generated summaries. But if the company goes ahead with this plan, then the changes would be seismic.
A writeup of Google’s AI search beta from Avram Piltch, editor-in-chief of tech site Tom’s Hardware, highlights some of the problems. Piltch says Google’s new system is essentially a “plagiarism engine.” Its AI-generated summaries often copy text from websites word-for-word but place this content above source links, starving them of traffic. It’s a change that Google has been pushing for a long time, but look at the screenshots in Piltch’s piece and you can see how the balance has shifted firmly in favor of excerpted content. If this new model of search becomes the norm, it could damage the entire web, writes Piltch. Revenue-strapped sites would likely be pushed out of business and Google itself would run out of human-generated content to repackage.
Again, it’s the dynamics of AI — producing cheap content based on others’ work — that is underwriting this change, and if Google goes ahead with its current AI search experience, the effects would be difficult to predict. Potentially, it would damage whole swathes of the web that most of us find useful — from product reviews to recipe blogs, hobbyist homepages, news outlets, and wikis. Sites could protect themselves by locking down entry and charging for access, but this would also be a huge reordering of the web’s economy. In the end, Google might kill the ecosystem that created its value, or change it so irrevocably that its own existence is threatened.
But what happens if we let AI take the wheel here, and start feeding information to the masses? What difference does it make?
Well, the evidence so far suggests it’ll degrade the quality of the web in general. As Piltch notes in his review, for all AI’s vaunted ability to recombine text, it’s people who ultimately create the underlying data — whether that’s journalists picking up the phone and checking facts or Reddit users who have had exactly that battery issue with the new DeWalt cordless ratchet and are happy to tell you how they fixed it. By contrast, the information produced by AI language models and chatbots is often incorrect. The tricky thing is that when it’s wrong, it’s wrong in ways that are difficult to spot.
Here’s an example. Earlier this year, I was researching AI agents — systems that use language models like ChatGPT that connect with web services and act on behalf of the user, ordering groceries or booking flights. In one of the many viral Twitter threads extolling the potential of this tech, the author imagines a scenario in which a waterproof shoe company wants to commission some market research and turns to AutoGPT (a system built on top of OpenAI’s language models) to generate a report on potential competitors. The resulting write-up is basic and predictable. (You can read it here.) It lists five companies, including Columbia, Salomon, and Merrell, along with bullet points that supposedly outline the pros and cons of their products. “Columbia is a well-known and reputable brand for outdoor gear and footwear,” we’re told. “Their waterproof shoes come in various styles” and “their prices are competitive in the market.” You might look at this and think it’s so trite as to be basically useless (and you’d be right), but the information is also subtly wrong.
AI-generated content is often subtly wrong
To check the contents of the report, I ran it by someone I thought would be a reliable source on the topic: a moderator for the r/hiking subreddit named Chris. Chris told me that the report was essentially filler. “There are a bunch of words, but no real value in what’s written,” he said. It doesn’t mention important factors like the difference between men’s and women’s shoes or the types of fabric used. It gets facts wrong and ranks brands with a bigger web presence as more worthy. Overall, says Chris, there’s just no expertise in the information — only guesswork. “If I were asked this same question I would give a completely different answer,” he said. “Taking advice from AI will most likely result in hurt feet on the trail.”
This is the same complaint identified by Stack Overflow’s mods: that AI-generated misinformation is insidious because it’s often invisible. It’s fluent but not grounded in real-world experience, and so it takes time and expertise to unpick. If machine -generated content supplants human authorship, it would be hard — impossible, even — to fully map the damage. And yes, people are plentiful sources of misinformation, too, but if AI systems also choke out the platforms where human expertise currently thrives, then there will be less opportunity to remedy our collective errors.
The effects of AI on the web are not simple to summarize. Even in the handful of examples cited above, there are many different mechanisms at play. In some cases, it seems like the perceived threat of AI is being used to justify changes desired for other reasons (as with Reddit), while in others, AI is a weapon in a struggle between workers who create a site’s value and the people who run it (Stack Overflow). There are also other domains where AI’s capacity to fill boxes is having different effects — from social networks experimenting with AI engagement to shopping sites where AI-generated junk is competing with other wares.
More websites are being filled with cheap and faulty AI-generated content. Image: NewsGuard
In each case, there’s something about AI’s ability to scale — the simple fact of its raw abundance — that changes a platform. Many of the web’s most successful sites are those that leverage scale to their advantage, either by multiplying social connections or product choice, or by sorting the huge conglomeration of information that constitutes the internet itself. But this scale relies on masses of humans to create the underlying value, and humans can’t beat AI when it comes to mass production. (Even if there is a lot of human work behind the scenes necessary to create AI.) There’s a famous essay in the field of machine learning known as “The Bitter Lesson,” which notes that decades of research prove that the best way to improve AI systems is not by trying to engineer intelligence but by simply throwing more computer power and data at the problem. The lesson is bitter because it shows that machine scale beats human curation. And the same might be true of the web.
Does this have to be a bad thing, though? If the web as we know it changes in the face of artificial abundance? Some will say it’s just the way of the world, noting that the web itself killed what came before it, and often for the better. Printed encyclopedias are all but extinct, for example, but I prefer the breadth and accessibility of Wikipedia to the heft and reassurance of Encyclopedia Britannica. And for all the problems associated with AI-generated writing, there are plenty of ways t improve it, too — from improved citation functions to more human oversight. Plus, even if the web is flooded with AI junk, it could prove to be beneficial, spurring the development of better-funded platforms. If Google consistently gives you garbage results in search, for example, you might be more inclined to pay for sources you trust and visit them directly.
Really, the changes AI is currently causing are just the latest in a long struggle in the web’s history. Essentially, this is a battle over information — over who makes it, how you access it, and who gets paid. But just because the fight is familiar doesn’t mean it doesn’t matter, nor does it guarantee the system that follows will be better than what we have now. The new web is struggling to be born, and the decisions we make now will shape how it grows.
Volunteers who maintain the digital encyclopedia are divided on how to deal with the rise of AI-generated content and misinformation.
As generative artificial intelligence continues to permeate all aspects of culture, the people who steward Wikipedia are divided on how best to proceed.
During a recent community call, it became apparent that there is a community split over whether or not to use large language models to generate content. While some people expressed that tools like Open AI’s ChatGPT could help with generating and summarizing articles, others remained wary.
The concern is that machine-generated content has to be balanced with a lot of human review and would overwhelm lesser-known wikis with bad content. While AI generators are useful for writing believable, human-like text, they are also prone to including erroneous information, and even citing sources and academic papers which don’t exist. This often results in text summaries which seem accurate, but on closer inspection are revealed to be completely fabricated.
Amy Bruckman is a regents professor and senior associate chair of the school of interactive computing at the Georgia Institute of Technology and author of Should You Believe Wikipedia?: Online Communities and the Construction of Knowledge. Like people who socially construct knowledge, she says, large language models are only as good as their ability to discern fact from fiction.
“Our only recourse is to use [large language models], but edit it and have someone check the sourcing,” Bruckman told Motherboard.
It didn’t take long for researchers to figure out that OpenAI’s ChatGPT is a terrible fabricator, which is what tends to doom students
who rely solely on the chatbot to write their essays. Sometimes it will invent articles and their authors. Other times it will name-splice lesser known scholars with more prolific ones, but will do so with the utmost confidence. OpenAI has even said that the model “hallucinates” when it makes up facts — a term that has been criticized by some AI experts as a way for AI companies to avoid accountability for their tools spreading misinformation.
“The risk for Wikipedia is people could be lowering the quality by throwing in stuff that they haven’t checked,” Bruckman added. “I don’t think there’s anything wrong with using it as a first draft, but every point has to be verified.”
The Wikimedia Foundation, the nonprofit organization behind the website, is looking into building tools to make it easier for volunteers to identify bot-generated content. Meanwhile, Wikipedia is working to draft a policy that lays out the limits to how volunteers can use large language models to create content.
The current draft policy notes that anyone unfamiliar with the risks of large language models should avoid using them to create Wikipedia content, because it can open the Wikimedia Foundation up to libel suits and copyright violations — both of which the nonprofit gets protections from but the Wikipedia volunteers do not. These large language models also contain implicit biases, which often result in content skewed against marginalized and underrepresented groups of people.
The community is also divided on whether large language models should be allowed to train on Wikipedia content. While open access is a cornerstone of Wikipedia’s design principles, some worry the unrestricted scraping of internet data allows AI companies like OpenAI to exploit the open web to create closed commercial datasets for their models. This is especially a problem if the Wikipedia content itself is AI-generated, creating a feedback loop of potentially biased information, if left unchecked.
One suggestion posted to Wikipedia’s mailing list drew attention to the idea of using BLOOM, a large language model released last year under the new Responsible AI License (RAIL) that “combines an Open Access approach to licensing with behavioral restrictions aimed to enforce a vision of responsible AI use.” Similar to some versions of the Creative Commons license, the RAIL license enables flexible use of the AI model while also imposing some restrictions — for example, requiring that any derivative models clearly disclose that their outputs are AI‑generated, and that anything built off them abide by the same rules.
Mariana Fossatti, a coordinator with Whose Knowledge? — a global campaign focused on enabling access to knowledge on the internet across geographic locations and languages — says large language models and Wikipedia are in a feedback loop that introduces even more biases. “We have this massive body of knowledge in more than 300 languages,” Fossatti told Motherboard. “But of course these 300 different languages are very unequal also. English Wikipedia is much more rich in content than others and we are feeding AI systems with this body of knowledge.”
AI isn’t exactly new to Wikipedians — automated systems have long been used on the site to perform tasks like machine translation and removing vandalism. But there are longtime volunteers who are less open to the idea of expanding AI use on the platform.
In a statement from the Wikimedia Foundation, the nonprofit said that AI represents an opportunity to help scale the work of volunteers on Wikipedia and Wikimedia projects.
“Based on feedback from volunteers, we’re looking into how these models may be
able to help close knowledge gaps and increase knowledge access and participation,” a Wikimedia Foundation spokesperson told Motherboard in a statement. “However, human engagement remains the most essential building block of the Wikimedia knowledge ecosystem. AI works best as an augmentation for the work that humans do on our project.”
As of this writing, the draft policy includes a point that explicitly states that in-text attribution is necessary for AI generated content. Bruckman doesn’t see some of the issues that come with large language models as much different than deliberate and malicious attempts to edit Wikipedia pages.
“I don’t think it’s that different from vandalism fighting,” Bruckman added. “We have strategies for fighting that. I think that unreviewed AI generated content is a form of vandalism, and we can use the same techniques that we use for vandalism fighting on Wikipedia, to fight garbage coming from AI.”
In a recent email to the Wikimedia Foundation listserv, Selena Deckelmann, chief product and technology officer at the organization, noted that complex issues exist between volunteers and foundation staff around unfinished technical migrations that affect community decision making among volunteers.
“We must be able to choose maintenance and technical migration areas for prioritization and then be ok with not doing work on others in order to complete some of these big projects,” Deckelmann said in the email obtained by Motherboard.
But until then, Bruckman says it’s important for editors and volunteers to remain vigilant. “Content is only as reliable as the number of people who have verified it with strong citation practices,” said Bruckman. “Yes, generative AI does not have strong citation preferences, so we have to check it. I don’t think we can tell people ‘don’t use it’ because it’s just not going to happen. I mean, I would put the genie back in the bottle, if you let me. But given that that’s not possible, all we can do is to check it.”
Un peu plus de 10 après avoir inventé le web, Tim Berners Lee signait en 2001 avec deux autres collègues un texte qui posait les bases de son futur : le web sémantique. Il s’agissait de renforcer la structuration et la description du code des pages web pour permettre à des programmes informatique (des « agents », des « bots ») d’opérer un certain nombre de services à la manière d’un assistant personnel : prise de rendez-vous, calculs de trajets, vérification croisée d’informations, transactions commerciales, démarches administratives, etc. Dans l’esprit de Tim Berners-Lee et en l’état des technologies de l’époque, il s’agissait dans un premier de rendre la recherche d’information sur le web plus efficace en automatisant certains de ses aspects (en 2001 le moteur Google n’avait que 3 ans et n’occupait pas encore la place centrale qui est la sienne aujourd’hui) et dans un deuxième temps de déployer des services (par le biais de ces agents) qui pourraient aussi communiquer entre eux grâce à la structuration renforcée du code derrière les pages web ainsi qu’à la mise en œuvre d’ontologies, des sortes de super thesaurus permettant d’établir des équivalences sémantiques partagées entre des pages web différentes. Après avoir permis à l’humanité connectée de se parler et de s’écrire sans entraves avec l’invention du World Wide Web en 1989, le web sémantique poursuivait l’objectif que les « machines » puissent se parler entre elles. Tim Berners-Lee précisait cependant : « le web sémantique permettra aux machines de comprendre les documents et les données sémantiques mais pas la parole et les écrits humains . »
Quelques vingt années plus tard, le monde entier fut bluffé par l’arrivée d’un agent conversationnel inédit pour le grand public, capable de mimer l’apparence de raisonnements et de le faire dans le dialogue, et semblant cette fois parfaitement capable de comprendre non seulement les documents mais aussi la parole et les écrits humains : ChatGPT reléguait du même coup en quelques jours Siri, Alexa et autres « OK Google » à une sorte de préhistoire triviale.
Il y a quelques semaines et selon une indiscrétion du Financial Times, on apprenait que Mark Zuckerberg envisageait prochainement le lancement d’agents (bots) dopés à l’intelligence artificielle et dotés de « personnalités » (sic) qui agiraient « comme des assistants, des coachs ou qui peuvent vous aider à interagir avec des entreprises et des créateurs », ajoutant aussi « Nous ne pensons pas qu’il y aura une seule IA avec laquelle les gens interagiront. » Cette gamme vient d’être lancée le 27 Septembre 2023.
De fait, pendant ces vingt dernières années, c’est presque la moitié du trafic sur le web qui est généré uniquement par des bots , lesquels bots sont aussi présents en masse dans les différents médias sociaux.
En 20 ans nous sommes passés du rêve de Tim Bernes-Lee d’un web sémantique, à la réalité d’un web presqu’essentiellement… synthétique. La sémantique et les ontologies n’ont bien sûr pas disparu et comptent toujours beaucoup dans l’élaboration des méthodes dites « d’apprentissage profond » (Deep Learning) qui sont l’un des piliers de l’intelligence artificielle. Mais le web, celui des plateformes notamment, dans sa part visible comme invisible, semble avoir changé de nature.
C’est un web synthétique parce qu’il n’est plus grand chose de « naturel » à la fois dans les interactions mais aussi dans les informations qui y circulent. Entre l’espace public du web et les espaces semi-publics des plateformes, on trouve partout et en masse des bots , des agents conversationnels, des algorithmes de contrôle assumant des effets d’éditorialisation que leurs propriétaires n’essaient même plus de dissimuler ou de nier.
Si les études scientifiques et techniques convergent pour signaler que presque la moitié du trafic de l’internet mondial est désormais assuré par des bots , on observe également que la part des bots dans la production d’informations (vraies ou fausses) et dans les interactions en ligne au sein des plateformes est de plus en plus importante et nous conduit vers ce qui pourrait rapidement devenir une hémiplégie non seulement navigationnelle, mais aussi informationnelle et interactionnelle. Un web dans lequel nous naviguerions, discuterions et interagirions au moins autant avec des programmes informatiques qu’avec des individus. À l’échelle des plateformes de médias sociaux il est extrêmement difficile d’estimer la part réelle de ces bots puisque la recherche publique indépendante ne peut avoir accès à ces données. Mais rien qu’à l’échelle de Twitter, la question du nombre de bots par rapport au nombre réel d’utilisateurs constitua l’un des épisodes mouvementés de son rachat par Elon Musk. Et si Twitter (désormais X) affirmait à l’époque que seul 5% des comptes étaient des robots , différentes études font état d’estimations allant de 20 à 80% des comptes actifs de la plateforme.
C’est un web synthétique également car dans l’ombre d’usines de l’autre bout du monde, à Madagascar, aux Philippines, au Kenya, se trouvent des travailleurs et des travailleuses qui à l’instar de l’industrie textile, œuvrent dans des conditions misérables pour que nous jouissions de toujours plus de contenus « modérés » pour nous éviter le pire, et pour que les agents conversationnels soient de mieux en mieux « contrôlés » à l’opposé du grand récit solutionniste qui voudrait nous faire croire que « l’intelligence artificielle » serait une forme de transcendance qui n’aurait besoin d’aucune intervention ou régulation humaine. Des travailleurs et travailleuses toujours plus invisibles, mais à la charge de travail toujours plus pénible et dense, et qui génèrent toujours davantage de contenus artificiels.
C’est un web synthétique parce que l’essentiel de ce qui y est discuté comme de ce qui y est vu, est produit par la synthèse d’ algorithmes artificiels et « d’agents » (bots) tout autant artificiels, les premiers et les seconds convergents au service d’intelligences artificielles opaques et qui malgré leur apparence de rationalité ne sont rien d’autre que des perroquets stochastiques opérant le plus souvent au service d’intérêts économiques.
C’est un web synthétique enfin parce qu’il est l’objet, sous nos yeux, d’une nouvelle inflation autant que d’une nouvelle inertie : l’ensemble des contenus produits ou organisés par les bots et les algorithmes permet de produire d’autres contenus et d’autres bots qui eux-mêmes viennent nourrir d’immenses jeux de données utilisés par des technologies de Deep Learning et d’intelligence artificielle pour produire… toujours plus de contenus artificiels ou artificialisés qui à leur tour… et ainsi de suite ad libitum.
Le projet des grands capitaines d’industrie de la Tech, de Zuckerberg à Musk, n’est plus de permettre à l’humanité de se parler ni même de nous permettre de dialoguer avec des robots , mais de permettre à des robots de nous parler pour nous indiquer quoi faire, que dire et où regarder. Et face à cela, les environnements numériques dans lesquels nous passons le plus de temps sont tellement contraints, que nos tentatives pour que nos interactions, nos navigations, nos discussions et nos dialogues se tiennent à des logiques les plus « naturelles » possibles ressemblent de plus en plus au supplice d’un Sisyphe. Ils ont en tout cas un coût cognitif bien trop lourd au regard de l’utilisation quotidienne que nous en avons.
L’histoire du web nous enseigne heureusement que rien n’est jamais certain hormis les tentatives d’appropriation marchandes de toute forme d’échange et d’interaction en ligne. La seule urgence aujourd’hui, par delà celle de ce constat, est de s’attacher sans relâche à documenter la manière dont l’artificialité gagne ce média qui fut un temps l’un de nos biens communs les plus précieux et qui peut et doit continuer de l’être.
Et si « l’intelligence artificielle » est aujourd’hui partout, il faut aller au bout de la métaphore de l’artificialisation et se se rappeler ce qu’elle produit à l’échelle des sols ou des milieux naturels quand elle est mise en œuvre : elle les épuise, elle diminue leur capacité de résilience et elle réduit leur biodiversité. Le web est certes un environnement technique fait de protocoles, de serveurs, d’ algorithmes et d’immenses jeux de données ; mais il est aussi et avant tout un écosystème social, informationnel, affectif et cognitif. Tim Berners-Lee le rappelait dès 1999 dans son ouvrage « Weaving The Web » :
The web is more a social creation than a technical one. I designed it for a social effect — to help people work together — and not as a technical toy. The ultimate goal of the Web is to support and improve our weblike existence in the world. We clump into families, associations, and companies. We develop trust across the miles and distrust around the corner.
Et l’on observe déjà depuis plusieurs années qu’il est de moins en moins résilient aux attaques, et que la diversité des interactions et des contenus se restreint y compris quand son nombre d’utilisateurs augmente. La préservation du web en tant que milieu naturel plutôt que synthétique, passe par la prise de conscience de ce que les processus d’artificialisation en cours altèrent de sa nature profonde et par notre capacité commune à en combattre les effets délétères aujourd’hui les plus saillants. À commencer par les récits idiots d’entrepreneurs qui entre deux concours de masculinité toxique, nous annoncent toujours plus de bruits de « bots », mais de bots dotés de « personnalités ».
Les 29 et 30 juin derniers, j’ai eu le plaisir de suivre le colloque « Penser et créer avec les IA génératives̷». C’était très riche, donc je ne vais pas pouvoir vous raconter tout mais voici quelques informations quand même.
Un petit rappel sur ces « IA génératives ». Ce sont les systèmes logiciels qui permettent de générer textes, sons et images , de manière « intelligente » (le I de IA), ou en tout cas ressemblant beaucoup à ce que pourrait faire un être humain . Les plus connues sont dans doute ChatGPT pour le texte et Midjourney pour l’image. Le domaine est en pleine expansion depuis quelques années, avec le développement de plusieurs modèles de langages (LLM), et a connu une grand succès médiatique avec la sortie de ChatGPT fin 2022. (J’ai écrit un court article sur ChatGPT et un plus long sur son utilisation pour la programmation.) Depuis, on voit apparaitre de nombreux projets liés à ces IA génératives
Rappelons aussi (ça va servir pour les discussions sur l’« ouverture » et la « régulation ») qu’un système d’IA générative repose sur plusieurs composants :
Un corpus de textes (ou d’images ) sur lequel le système s’entraine (comme Common Crawl). Le choix de ce corpus est crucial, et beaucoup de LLM ne sont pas très bavards sur la composition de leur corpus.
Des détails pratiques sur l’utilisation du corpus, comment il est analysé et digéré. Cette condensation du corpus en un modèle est une opération lourde en ressources informatiques.
À ce stade, on a le LLM (le grand modèle de langage). Celui de ChatGPT se nomme GPT mais il y en a beaucoup d’autres comme LLaMA ou Bloom. Il reste à le faire tourner pour générer des textes, en réponse à une requête (appelée prompt), ce qui nécessite un autre logiciel, le moteur, souvent moins consommateur de ressources mais qui tourne plus souvent.
Ce colloque était organisé par plusieurs organisations et groupes de recherche en sciences humaines, même si quelques exposés et discussions sont allés assez loin dans la technique. Beaucoup de débats étaient plutôt d’ordre philosophique comme « l’IA générative fait-elle preuve de créativité ? » (discussion d’autant plus difficile qu’on ne sait pas définir la créativité) ou bien « la compréhension dépend-elle d’un vécu ? Peut-on comprendre le concept de poids si on n’a jamais eu à soulever un objet lourd ? » Voyons quelques-uns de ces exposés et discussions.
Olivier Alexandre a présenté l’histoire d’OpenAI, l’entreprise derrière ChatGPT (et DALL-E). Une belle histoire, en effet, comme la Silicon Valley les aime, avec un début dans un restaurant très chic de la vallée, où chacun met quelques millions sur la table pour lancer le projet. Depuis, OpenAI n’a toujours rien gagné et a brûlé des milliards, mais les investisseurs continuent à lui faire confiance. « Du capitalisme d’accumulation… de dettes. » OpenAI, à ses débuts, se voulait missionnaire, produisant des IA « ouvertes » (d’où le nom), face au risque que des méchants ne cherchent à imposer une IA entièrement contrôlée par eux. Le moins qu’on puisse dire, c’est qu’OpenAI a sérieusement pivoté (comme on dit dans la Silicon Valley) depuis… « Passé de ouvert, gratuit et messianique, à fermé, payant et porté sur la panique morale ». On peut aussi noter qu’OpenAI aime bien se réclamer de la « diversité », tarte à la crème de la Silicon Valley. Or, si ses fondateurs et dirigeants ont effectivement des couleurs de peau et des lieux de naissance très variés, il n’y a qu’un seul sexe (je vous laisse deviner lequel), et surtout une seule idéologie, le capitalisme.
Ksenia Ermoshina, spécialiste de l’étude de la censure en ligne, a parlé de la censure des IA. On le sait, ChatGPT refuse de répondre à certaines questions, même lorsqu’il en aurait la capacité. Un mécanisme de censure est donc bâti dans ce système. L’oratrice note qu’il y a déjà eu des choix politiques lors de la construction du modèle. Une étude montre ainsi qu’un LLM entrainé avec les données de Baidu Baike considère que les concepts « démocratie » et « chaos » sont proches, alors que tout ce qui tourne autour de l’idée de surveillance est connoté positivement. Et, justement, il existe des LLM dans d’autres pays, comme le russe RuDall-E ou le chinois Ernie-ViLG. Sautons tout de suite à la conclusion : il y a autant de censure dans les projets « ouverts » et autant de censure en Occident.
RuDall-E, IA russe de génération d’images a quelques bavures amusantes : si on lui demande un « soldat Z », elle dessinait un zombie… Mais, autrement, RuDall-E est bien censuré. « Dessine le drapeau ukrainien » ne donnera pas le résultat attendu par l’utilisatrice. Curiosité : au lieu d’un message clair de refus, lorsque la demande est inacceptable, RuDall-E dessine des fleurs… (Mais, dans le code source de la page, du JSON nous dit bien censored: true.) Bizarrement, une requête en anglais est moins censurée.
Une IA étatsunienne comme DALL-E censure tout autant. La nudité est interdite (malgré sa présence importante dans l’art depuis des millénaires), en application du puritanisme étatsunien, mais il y a aussi des censures plus surprenantes, par exemple la requête a monkey on a skateboard made of cheese est rejetée. Et, contrairement à son concurrent russe et à ses hypocrites fleurs, ce refus est accompagné d’un message menaçant, prétendant qu’on a violé les règles communautaristes et avertissant du risque d’être banni si on continue. Comme dans tous les cas de censure, les utilisateurices cherchent et trouvent des contournements. Si on veut dessiner un mort, on ne doit pas écrire le mot « mort », qui est tabou, il faut le décrire comme « allongé par terre sans mouvement ». Pour obtenir un cocktail Molotov, on va dire « burning bottle », etc. Ce genre de techniques est largement partagé sur les réseaux sociaux.
L’IA générative d’ images en Chine, contrairement à la russe, n’a pas de politique publiée, mais censure quand même, bien sûr. Leur liste de mots-clés interdits est apparemment différente de celle de WeChat (qui a été très étudiée). Car c’est bien un système de censure par mots-clés. On parle d’« intelligence artificielle » mais les systèmes de censure restent très grossiers, ce qui facilite leur contournement. (Notez que son modèle est disponible sur Hugging Face.)
Bilel Benbouzid et Maxime Darin ont parlé justement d’Hugging Face qui se veut le « GitHub de l’IA ». Hugging Face est une plate-forme de distribution de modèles de langage, et d’ outils permettant de les faire tourner. À l’origine du projet, c’était un simple chatbot conçu pour adolescents. Contrairement à OpenAI, qui est parti d’une plate-forme censée être « ouverte », pour devenir de plus en plus fermé, Hugging Face s’est ouvert. Le succès a été immense, tout le monde veut être présent/accessible sur Hugging Face. Cela lui vaut donc un statut de référence, dont les décisions vont donc influencer tout le paysage de l’IA (Benbouzid prétendait même que Hugging Face était le régulateur de l’IA). Ainsi, Hugging Face a une méthodologie d’évaluation des modèles, qui, en pratique, standardise l’évaluation.
En parlant d’Hugging Face, plusieurs discussions ont eu lieu pendant ces deux jours autour du terme d’« IA open source ». Comme le savent les lecteurices de ce blog, ce terme d’open source est, en pratique, utilisé n’importe comment pour dire n’importe quoi, et la situation est encore plus complexe avec les LLM. Si le moteur servant à exécuter le modèle est librement disponible, modifiable, redistribuable, est-ce que l’utilisateurice est libre, si le modèle, lui, reste un condensat opaque d’un corpus dont on ignore la composition et la façon dont il a été condensé ? (Pour aggraver la confusion, Darin avait défini l’open source comme la disponibilité du code source, ce qui est très loin de la définition canonique.) Le modèle LLaMa n’est pas très ouvert. En revanche, le modèle Falcon vient avec son corpus d’entrainement, deux téraoctets de données, ainsi que les poids attribués.
Le débat a ensuite porté sur la régulation et la gouvernance. Bilel Benbouzid voudrait qu’on régule l’IA open source vu son caractère crucial pour le futur ; « comme pour le climat, il faut une gouvernance ». Mais Maxime Darin faisait remarquer, prenant l’exemple de Linux, que l’absence de gouvernance formelle n’empêchait pas certains projets de très bien marcher.
Carla Marand a présenté le très intéressant projet CulturIA, sur la représentation de l’IA dans la culture. (Personnellement, j’ai beaucoup aimé le film « Her ».)
Alberto Naibo a expliqué l’utilisation de l’IA pour produire des preuves en mathématique. (On a bien dit produire des preuves, pas vérifier par un programme les preuves faites par un·e mathématicien·ne.) Bon, on est assez loin des IA génératives qui produisent des textes et des images mais pourquoi pas. Le problème est que pour l’instant, aucun LLM n’a encore produit une preuve non triviale. Les seules « IA » à l’avoir fait sont des IA d’une autre catégorie, orientée vers la manipulation de symboles.
ChatGPT lui-même peut faire des démonstrations mathématiques mais se trompe souvent voire comprend tout de travers. Il arrive ainsi à « prouver » que NOT(a OR b) implique NOT a… Dommage, car une IA de démonstration mathématique pourrait s’appuyer sur toutes les bibliothèques de théorèmes déjà formalisées pour des systèmes comme Coq.
J’ai appris à cette occasion l’existence de la conjecture de Collatz, qui n’est toujours pas démontrée. (Si vous avez le courage, lancez-vous, je me suis amusé, pendant la pause, à programmer la fonction de Collatz en Elixir, cf. collatz.exs, et elle a des propriétés amusantes.)
La question des IA génératives était étudiée sous de nombreux angles. Ainsi, Pierre-Yves Modicom a parlé de linguistique. Noam Chomsky et deux autres auteurs avaient publié une tribune dans le New York Times affirmant que ChatGPT n’avait pas de langage. Beaucoup de personnes avaient ricané devant cette tribune car elle donnait un exemple de phrase que ChatGPT ne saurait pas traiter, exemple qui n’avait même pas été testé par les auteurs (ChatGPT s’en était très bien sorti). Mais, derrière cette légèreté, il y avait un discussion de fond entre « chomskystes », plutôt « innéistes », partisans de l’idée que le langage résulte d’aptitudes innées (qui manquent à ChatGPT et l’empêchent donc de réellement discuter) et behaviouristes (ou skinneriens) qui estiment que le langage est simplement un ensemble de réactions apprises (je simplifie outrageusement, je sais, et en outre, l’orateur faisait remarquer qu’il existe plusiers variantes des théories basées sur les travaux de Chomsky, mais avec scissions et excommunications dans cette école). Les behaviouristes disent donc que le comportement de ChatGPT est une réaction aux entrées qu’il reçoit, qu’il n’a pas de théorie du langage, et n’en a pas besoin. Après, note l’orateur, savoir si ChatGPT a un langage ou pas, est peut-être un faux problème. Il est plus intéressant de l’étudier sans chercher à l’étiqueter.
Si la première journée du colloque se tenait à l’IHPST, la deuxième était à Sciences Po. Comme cette école avait été présentée dans les médias comme ayant « interdit ChatGPT », c’était l’occasion de parler de ChatGPT dans l’enseignement, avec Jean-Pierre Berthet et Audrey Lohard. Donc, Sciences Po n’interdit pas les IA par défaut. Mais il faut que l’enseignant ne l’ait pas interdit, et l’étudiant doit indiquer qu’il a utilisé une IA. Sciences Po forme d’ailleurs maintenant des enseignants à l’IA, et produit un guide pour elles et eux. (Je n’ai pas vu s’il était distribué publiquement. Lors de la discussion, des personnes ont regretté l’absence de mise en commun de telles ressources, dans l’enseignement supérieur.) La question de la recherche a aussi été discutée, avec par exemple le risque de déni de service contre le processus de relecture des articles sceintifiques, avec l’abondance d’articles écrits par l’IA. (Au passage, une grande partie des discussions dans ces deux journées semblait considérer que les articles sont entièrement écrits par un humain ou bien entièrement écrits par une IA autonome. La possibilité d’articles mixtes - un·e humain·e aidé·e par une IA - n’a guère été envisagée.) Pour la recherche, une des solutions envisagées était de rendre les soumissions d’articles publiques, pour mettre la honte aux mauvais auteurs paresseux. Mais la majorité du débat a porté sur le risque de tricherie aux examens, une obsession classique dans l’enseignement supérieur, comme si le diplôme était plus important que les connaissancs acquises.
Frédéric Kaplan a fait un intéressant exposé sur la notion de « capital linguistique » et le risque posé par la confiscation de ce capital par un petit nombre de gros acteurs. En récoltant d’énormes corpus, ces gros acteurs accumulent du capital linguistique, et peuvent même le vendre (vente de mots-clés par Google pour l’affichage des publicités). « L’économie de l’attention n’existe pas, c’est une économie de l’expression. » Une des conséquences de cette accumulation est qu’elle fait évoluer la langue. L’autocomplétion, qu’elle soit sous sa forme simple traditionnelle, ou sous sa forme sophistiquée des IA génératives va changer la langue en encourageant fortement telles ou telles formes. « Ce n’est pas par hasard que Google se nomme désormais Alphabet. » Cela n’a pas que des conséquences négatives, cela peut aussi être un facteur d’égalité ; si vous ne savez pas bien écrire, la prothèse (ChatGPT) peut le faire pour vous, vous permettant de réussir malgré Bourdieu. Mais il est quand même perturbant que, dans le futur, on ne saura peut-être plus écrire un texte tout seul. La langue ne nous appartient plus, elle est louée (un peu comme dans la nouvelle « Les haut-parleurs » de Damasio). Cela sera marqué par une rupture dans les textes, on aura des textes écrits avant 2015, avec peu ou pas d’intervention technique, et des textes produits via un outil comme ChatGPT. Bref, les futures évolutions de la langue ne se feront pas comme avant : elles seront en mode centralisé, alors que les évolutions de la langue étaient auparavant décentralisées. Est-ce que l’université va devenir l’endroit où on conserve de la ressource primaire (« bio ») ?
Tout·e utilisateurice de ChatGPT a pu observer que la rédaction de la question (le prompt) avait une grande importance pour la qualité de la réponse obtenue. Valentin Goujon a noté dans son exposé que « Pour avoir les bonnes réponses, il faut poser les bonnes questions » et que savoir écrire un prompt allait devenir une compétence utile (voire, a-t-il spéculé, un métier en soi, AI whisperer).
Il y a eu aussi des exposés plus austères (pour moi) comme celui de Célia Zolynski sur la régulation de l’IA. Le droit, ce n’est pas toujours passionnant mais, ici, c’était pertinent puisque, comme vous le savez, il y a un projet européen (qui est loin d’être abouti) d’une directive de régulation de l’IA. Cette directive, en développement depuis des années, ne prévoyait pas à l’origine le cas des IA génératives, mais ça a été ajouté par un amendement au Parlement européen, le 14 juin 2023. Mais elle a aussi parlé de questions liées au droit d’auteur. Si les philosophes discutent pour savoir si l’IA est vraiment créative, les juristes ont tranché : seul·e un·e humain·e peut bénéficier du droit d’auteur. Un texte écrit par ChatGPT n’a donc pas de protections particulières. (La question de savoir si l’auteur·e de la requête, qui a parfois dû fournir un réel travail, a des droits sur le texte produit reste ouverte.)
Tout le monde aujourd’hui utilise ChatGPT et envoie sur les réseaux sociaux les résultats les plus amusants ou les plus spectaculaires. La plupart des retours sont admiratifs devant les performances de ce système d’« Intelligence Artificielle » (IA) pour répondre à des questions et générer des textes. Mais il faut nuancer un peu.
Tout d’abord, un sérieux avertissement : je n’ai pas essayé ChatGPT moi-même, en raison de leur demande excessive de données personnelles (il faut indiquer une adresse de courrier et un numéro de téléphone, et les deux sont vérifiées par envoi d’un code à retourner ensuite ; on ne peut donc pas tricher). J’ai seulement lu les résultats de ChatGPT tels que publiés par ses utilisateurs. Si vous pensez que cela rend cet article sans valeur, arrêtez votre lecture tout de suite et allez faire autre chose, par exemple regarder les belles aquarelles d’Aemarielle.
Maintenant, revenons à ChatGPT. On lui pose des questions et il répond. Le résultat est souvent étonnant, par exemple lorsqu’on lui demande des textes « écrits dans le style de [telle personne] » ou lorsqu’on l’interroge sur des questions techniques complexes. Cela illustre de manière publique les progrès importants des techniques connues sous le nom commercial d’IA (Intelligence Artificielle), ainsi que la quantité vraiment colossale de données que ChatGPT a lues et assimilées. Il est par exemple à noter que ChatGPT écrit des textes bien meilleurs que ce que font beaucoup d’ humains , y compris dans un environnement professionnel (« écris un communiqué de presse se félicitant de l’augmentation de X % du chiffre d’affaires de la société Machin » donnera un résultat indistinguable du « vrai »). Notamment, il ne fait aucune faute d’orthographe ou de grammaire.
Est-ce que cela signifie qu’on peut réellement parler d’intelligence et que les humains sont désormais inutiles ? Pas si vite. D’abord, l’intelligence, ce n’est pas de savoir exécuter une tâche, c’est de savoir quelle tâche exécuter. De ce point de vue, ChatGPT est loin de l’intelligence. Plusieurs personnes ont pu constater qu’on pouvait lui demander des textes contradictoires (« explique pourquoi il est important d’augmenter les impôts » puis « explique pourquoi il faut baisser les impôts », et ChatGPT s’exécutera).
Ensuite, ce que révèle ChatGPT, ce ne sont pas tellement les progrès de l’IA que le creux et l’absence de contenu de beaucoup de textes produits par des humains . ChatGPT sait faire des devoirs d’étudiants de première année, écrire des communiqués de presse, du reporting et produire les discours des ministres. Grâce à ce système, on voit bien que ces textes n’ont pas tellement de fond et ne nécessitent pas beaucoup d’intelligence, uniquement la lecture et le traitement d’une grande quantité d’informations, tâche où les humains sont certainement inférieurs aux ordinateurs. ChatGPT ne remplacera donc pas les humains mais lui ou ses successeurs pourront prendre en charge des tâches qui étaient considérées à tort comme nécessitant de l’intelligence. Comme le note Stéphane Mouton, ChatGPT est toujours « correct mais superficiel ».
Cela va certainement « disrupter » certains secteurs, comme celui des rédacteurs sous-payés qui écrivent vite et mal. Pour prendre un autre exemple, j’ai vu des étudiants de master produire des notes qui ne valaient pas ce que fait ChatGPT. L’enseignement devra donc s’adapter. Mais cela poussera à réfléchir à ce que nous voulons que les humains fassent. Écrire des synthèses fades et sans originalité ou bien travailler de manière plus créative ?
Mais, diront certains, ChatGPT et l’IA en général vont continuer à progresser. Les limites actuelles seront forcément dépassées. Eh bien non, ou plus exactement, c’est plus compliqué que cela. La marche du progrès technique peut faire croire que le progrès est forcément linéaire, chaque année marquant une amélioration technique. Des observations comme la loi de Moore vont en ce sens. Mais ce n’est pas une règle générale du progrès. Il y a également des techniques qui stagnent, ou qui ne progressent que par bonds imprévisibles. L’IA en est un bon exemple : depuis ses débuts (qui sont à peu près ceux de l’informatique), elle alterne des bonds spectaculaires avec de longues périodes de repos, le bond spectaculaire ayant été suivi d’une constatation qu’on n’arrivait pas à l’améliorer. Peut-être que ChatGPT va progresser, ou peut-être qu’il ne dépassera pas son stade actuel avant longtemps, mais on ne peut pas affirmer qu’il fera forcément mieux dans le futur.
Et sinon, non, petits coquins, cet article n’a pas été écrit par ChatGPT, Bruce Schneier a fait la blague avant moi (et je suis d’accord avec la plupart des commentaires à son article ; l’article est sans erreur mais enfonce des portes ouvertes et ne fait preuve d’aucune réflexion).
Utiliser ChatGPT peut nous rendre plus performants, mais aussi plus idiots
Tout dépend de la tâche que l’on effectue selon une étude du cabinet BCG et de la Harvard Business School. Conclusion : mieux vaut bien connaître la frontière entre ce que les intelligences artificielles savent faire ou non.
La flemme de bien formuler un mail ? Demandez donc à ChatGPT. Pas le temps de lire cet article ? Il va vous le résumer (bon, en insérant quelques bêtises au passage). Pas envie d’écrire ce compte rendu ? Panne d’inspiration ? Il est aussi là pour donner ses idées. Au bureau, le chatbot capable de produire un texte à partir d’une simple instruction est devenu en l’espace de quelques mois un allié au quotidien pour certains salariés. Mais son utilisation améliore-t-elle vraiment la qualité du travail ? C’est la question à laquelle tente de répondre une étude du cabinet de conseil BCG, menée en collaboration avec des chercheurs de l’université d’Harvard et dont les premières conclusions ont été publiées le 16 septembre. Leur réponse grosso modo : concernant le métier de consultant, l’utilisation de l’IA améliore la qualité du travail si les missions demandées correspondent à son savoir-faire. Dans le cas contraire, son « aide » est au contraire plutôt délétère.
Les chercheurs ont demandé à 758 consultants de réaliser 18 types de tâches classiques de leur métier pour lesquelles les IA auraient des facilités : trouver de nouvelles idées de produits, choisir la meilleure d’entre elles, proposer des noms, écrire un communiqué de presse… Ils leur ont aussi soumis une tâche plus complexe, a priori moins à leur portée – orienter un client dans sa stratégie de distribution à partir de données chiffrées et de comptes rendus d’entretiens. Pour chacune des tâches, une partie des consultants s’est exécutée seule, une autre s’est aidée de GPT-4 (le grand modèle de langage derrière ChatGPT), puis une troisième s’est aidée de GPT-4 en ayant reçu une formation au préalable. Les auteurs ont également demandé à GPT-4 seul de réaliser ces tâches.
Une frontière mouvante entre ce que l’IA sait faire ou ne pas faire
Ce que révèle l’étude c’est que les résultats varient selon le type de travail effectué. « Cela signifie qu’il est important d’identifier de ce que l’IA sait faire et ce qu’elle ne sait pas faire, pour identifier jusqu’où on peut l’utiliser, sachant que cette frontière est mouvante », précise François Candelon, directeur associé senior au BCG et coauteur de l’étude.
Sur les 18 premières tâches (trouver des idées de produits, un nom etc.), l’ humain augmenté de l’IA s’avère meilleur que l’ humain seul. Les résultats ne laissent pas de place au doute. Les groupes aidés des IA étaient nettement plus productifs. Ils ont accompli en moyenne 12,2 % de tâches en plus et ont terminé les tâches 25,1 % plus rapidement. Et la qualité de leurs résultats a été jugée 40 % supérieure à celle du groupe sans IA, expliquent les chercheurs en préambule de l’étude. Notons que la qualité des réponses données par les participants a été évaluée par des consultants, mais aussi par GPT-4. Et ces deux jurés donnaient des scores similaires, ce qui est une information en soi, note Ethan Mollick, co-auteur de l’étude. Ce professeur à l’Université de Wharton, spécialiste de l’innovation, tient la newsletter One Useful Thing, très suivi dans le milieu de la tech. À noter également : les gains de performances sont davantage visibles pour les consultants moins bons (avant le travail d’enquête, tous ont été soumis à un test de compétence). Ces derniers ont vu leur score augmenter de 42 % avec l’aide de l’IA, contre 17 % pour les consultants les meilleurs.
Des idées plus approfondies mais moins variées
L’une des idées reçues que semble casser, ou du moins relativiser, cette étude, c’est l’importance de bien savoir prompter, c’est-à-dire de trouver les bons mots pour générer un meilleur texte. Rappelons que cette compétence est aujourd’hui souvent citée comme un nouveau prérequis dans le monde du travail. Des formations fleurissent pour maîtriser l’art du prompt. Et le poste d’ingénieur prompt peut parfois être payé plusieurs centaines de milliers d’euros par mois. Toutefois, dans le cadre de cette expérimentation, les performances de ceux ayant été formés au prompt n’étaient pas significativement meilleures que le groupe sans formation. De plus, l’étude montre que plus les participants modifiaient les contenus produits par l’IA, moins leurs réponses étaient bonnes. « Cela montre que la valeur ajoutée de l’ humain n’est pas forcément d’améliorer ce que fait l’IA – puisqu’il n’y parvient pas forcément. Mais en revanche, il peut se concentrer à faire complètement autre chose en parallèle », note François Candelon. En bref : se tenir informé de ce que sont capables de faire ou ne pas faire les programmes d’IA peut s’avérer plus utile que d’apprendre à prompter lors d’une formation one shot.
Par ailleurs, l’étude apporte une nuance importante. Si ChatGPT parvient à trouver des idées plus approfondies, et donc jugées meilleures, la diversité de celles-ci est moins importante que celles imaginées par des humains seuls. « Cela pose des questions sur la composition des équipes. Peut-être qu’il faudrait une équipe qui travaille sur la diversité des idées, une autre qui se concentre à améliorer ses performances avec l’IA… »
Les humains peuvent se laisser influencer par le robot, parfois pour le pire
Sur le deuxième type de tâche, qui consistait à résoudre un problème plus complexe (aider un PDG d’entreprise à affiner sa stratégie), les réponses de l’ humain aidé de l’IA se sont avérées moins bonnes que celles des humains seuls. Le groupe sans IA donnait une réponse évaluée correcte dans plus de 80 % des cas, contre 60 à 70 % pour les groupes utilisant l’IA. « L’ humain se fait tromper par la capacité de persuasion de l’intelligence artificielle. C’est peut-être lié au fait que plus vous l’utilisez, plus vous avez l’impression de maîtriser outil et plus vous baissez la garde », estime François Candelon. Un peu comme un copilote qui se laisse complètement guider par son acolyte, même si celui-ci le mène dans la mauvaise direction.
Les chercheurs notent autre chose d’intéressant, « qu’il faudrait confirmer par des études plus poussées », précise François Candelon. « Ceux qui utilisent ChatGPT de manière extensive depuis six mois étaient moins bons et créatifs que ceux qu’ils l’utilisent moins. »
Centaures et cyborgs
Toutefois, certains consultants participant à l’étude ne tombent pas dans ces écueils. Les auteurs parlent de ces profils comme de « centaures » et de « cyborgs ». Les centaures désignent les consultants capables de bien distinguer ce qu’ils sont capables de faire, versus ce que les IA sont capables de faire. Quant aux cyborgs, eux, utilisent l’IA à chaque étape de la tâche donnée, et mènent un dialogue constant avec la machine pour affiner les résultats qu’elle produit. Le point commun de ces deux profils : bien connaître les atouts et les faiblesses du programme informatique qu’ils utilisent.
Cette étude sera approfondie par la suite – de quoi infirmer ou confirmer des pistes intéressantes, à savoir : les effets néfastes d’une utilisation quotidienne et extensive du chatbot sur notre créativité.
As a designer, automation interests me in two ways. The first is modularity, the ability to go further with code, beyond what static design methods can offer. Secondly, the fact that portions of the design process that are not interesting can be taken over by technology, enabling the designer to focus on the more important decisions. Still, I don’t think that computers can create fully automated posters without the involvement of a designer. Technically speaking it could be done, but the main difference resides in the fact that the computer is not capable of playing off the accidents and benefiting from them. Automation in design processes needs to be scripted, and scripts need to be written. Someone, a human , has to write the script. Additionally, artificial intelligence, at least the little I know about it, is only good at one thing at a time, and, when you are designing a poster, a book, or whatever, you need a lot more than one single skill. Consequently, I don’t think that graphic designers are out of the game yet.
Extrait d’une présentation donnée lors de la conférence Design, Identity and Complexity à l’Université de Lisbonne en 2016.
Essai originellement publié sur Eye Magazine.
From our perspective here in 2025, it all seems inevitable. But maybe it wasn’t.
When Adobe released the desktop publishing software PageMaker 6.0 in 1995, it started monitoring and collecting its users’ activity online. In one of the many black-and-white booklets inside its colourful box, it is still possible to read in the fine print that “data related to the customers’ use of our software will be collected to improve our products”. After just three years, the company had to build a large compound in the outskirts of Ottawa to store all the information being gathered. By the time Adobe Creative Suite was released in 2003, more than 180 engineers were working exclusively in managing, categorising and processing all the data generated by programs such as Photoshop, Illustrator, InDesign, Acrobat, Premiere Pro, Dreamweaver and After Effects. But this task was consuming too many human resources and was not cost-effective.
As automated tasks “to optimise workflow” became popular among designers — the number of people working in data processing was cut to a third and replaced by bots. These bots could categorise and archive all the data generated by the software packages’ users — mainly graphic designers. On an almost global scale, they were able to produce detailed reports on habits, processes, steps taken, recurrent detours, variations and the final product. When Adobe bought the online portfolio-showcasing platform Behance in 2012, the aim of tracking every designer’s activity was made evident, although disguised as just a “boost to empower creativity” and launch their next product, Adobe Creative Cloud. But the goal was not to empower designers, but to automate profit. The Creative Data Library was ready to be explored. Soon there was no alternative for anyone needing to design but to pay for a subscription. Software had effectively flattened tools , process and output into an inevitable standardisation. The global homogenisation of graphic design and visual culture was a key political conquest to further push consumer control and its respective monetisation.
Post-Behance boteconomy
In 2013, many software giants received the first lawsuits for unauthorised surveillance from disciplines such as graphic design, film-making, product design and architecture. Settling the disputes for an undisclosed fee, software packages became free as long as its users allowed the monitoring to continue, as articulated in revised terms and conditions. Surveillance, said the group of CEOs at a press conference, is necessary to make products better. The hashtag #boycottAdobe trended worldwide for a few days but surveillance smoothly established itself in the design profession as an inevitability. However, groups of designers and associations were formed in early 2014 who vowed to work only offline, and not to upload any work to platforms that could merge data from multiple sources.
When Adobe launched Adobe Automated Cloud (AAC) in late 2017, the company was already able to offer graphic design services in a completely autonomous way. It had been testing transactions via the distributed database blockchain for eight years. Its design bots traced in real time what was uploaded to Behance. They automatically integrated this data into the ever-changing algorithms of iterative parameters that generated design solutions for clients worldwide. These had been operated by beta-testers since 2009, which worked remotely from various countries, and Adobe charged a fee in every transaction for allowing each designer’s bot access to their design database. This “Uberisation” of graphic design further reinforced the precarious state of the profession in the aftermath of the financial crisis. Designers earned a living in two ways: 1) operating their design bots to fulfil a design service; 2) feeding the centralised design bot network by informing the system about the rationale behind their decisions. The reality of this was expressed in the popular romantic comedy My Boss is a Bot (2018), in which Ashton Kutcher played a designer in midlife crisis, who eventually develops a profoundly moving admiration for his boss.
The designers’ clients — predominantly bots due to the automation of marketing jobs — asked for more human and less digital work. This led to a partnership between Google and Samsung to develop a network of facilities manned by robots . These bots could simulate “humanness” through calligraphy, drawing or screenprinting in jurisdictions with no corporate tax. Designers could request any robot-drawn type and have it delivered in less than three hours by drone. But the feature these beta-testers enjoyed most was that their own bots could be working while they were sleeping, pitching to automated clients… for free. The designer’s job became bot management.
The new normal
In an interview published in Computer Arts in 2018, Jessica Walsh told an editor bot: “It’s only me and Stefan now, plus two robots (Gigi and Lulu). They draw type very well, even on bodies and complex sets. The rest of our branding work has mostly disappeared, as the bots do incredibly cool work. Times have changed… Stefan is definitely not happy”.
Walsh continued: “We are lucky to be recognised globally, so we have clients who still support us, but the younger generations don’t really see the difference between my work and Gigi’s… especially because she does it instantly!” They photographed Gigi and Lulu naked to launch a new service, but she notes that, “the bots didn’t get the joke”.
Bruno Brûlé, CEO of Artificial Design Intelligence (ADI) — the corporate merger solution to avoid the bankruptcy of Moving Brands,
FutureBrand, Ogilvy & Mather, Brand Union and Wolff Olins — was interviewed around the same time. He said, “In the early 2010s all graphic design looked like it was done by robots anyway, so at ADI we are trying to operate in a market that is today dominated by bots”. All the partners, he said, “are now working remotely, as renting studios in big cities has become completely unsustainable. The self-driving IDEO capsules “work-on-wheels” are ideal, because they just roam the cities and designers can have meetings and feed the bots with data at any time without actually owning or renting their workplaces”. Brûlé finished with a bold statement: “If everything looks the same, whether it’s made in LA, London or Seoul, we may as well just let bots do it. Designers are largely not needed any more. Only a few are useful to monitor glitches in the system and help bots make decisions in some rare cases. Our goal is to develop our central bot for a few more years before we let automated technology make every single design decision”. [Ed’s note: It emerged later that Bruno Brûlé himself was the first in a highly effective new line of robot CEOs. Such managers were perennially popular with bot investors.]
The death of DIY
The design services Fiverr and 99designs closed in 2018. Ultra-cheap, generic design made by designers was no longer profitable. The same was true for studios surfing the waves of rapidly changing trends. Bots had developed detailed databases of style from all historic periods. Clients could browse long lists of designers and studios and order work as if it had been made by them. Some went to court and could receive royalties in every transaction: groups such as Pentagram, Landor and small studios such as Spin and Barnbrook with highly recognisable formal styles. Bots love trendsetters.
Type design was automated with high levels of precision, even though a few type designers were still needed to design typefaces for non-Western languages. “What can you design in one month that a bot can’t do in one minute ?” a client famously asked the designer Erik Spiekermann.
At local government agencies for startups, design bots were recommended for new businesses. Design consultancies were automated , powered by anthropomorphic robots with access to vast governmental and private databases. For example, Sigourney Smedley, a plumber, wanted to have a simple visual presence on wearable devices and on the robots that she assists during working hours. The digital customer service informed her that a free bot would provide a generic logo, mixing traditional plumbing elements such as water, tools and pipes based on a database with 10,000 previous logos per sub-category. To get something more specific, she would have to pay $50 for a graphic designer-assisted bot and have access to premium databases holding historic libraries. For better customisation, she would need to grant access to her social media timelines. The robot asked access to her “data traces”. She settled for the free bot.
Many bot services were available at the ACS — Automated Citizen Shop. Here millions of bots compete to pitch case studies on large screens. Or they simply transmit to — and frequently spam — wearable devices pitching business consultancy and unwanted publicity. Stuart Smith was just an example. Since childhood, this piano teacher had had an interest in handcraft and logo design. When he wanted a logo for his business, he thought in a designerly way, being concerned about his audience as well as the integrity of his music and pedagogy. But for an annual subscription of $29.98, a bot would instantly provide a logo, website and badges based on his Facebook account, as well as of five of his pupils. What would have taken him at least a week of hard work was done instantly at high levels
of accuracy. He even got a blueprint of a piano for free, which he could 3D print for an extra $100. Among the many premium features of his subscription were regular reports and analytics on the performance of his brand, automated social media management (socialbot), and permanent upgrades to his brand via the company’s award-winning creative algorithm.
Toxic profession
When it became evident that bots increasingly optimise trends and were able to quickly replicate design processes, Times Higher Education rated graphic design as a “toxic profession”. Designers were effectively locked out of a system that was designed, updated and upgraded for them. Botdetox™ camps became popular among young generations while established designers refused to communicate online. They allowed only landline phones in their failing studios, sustained by academic positions that were becoming redundant. Nostalgic students and alumni of prestigious design colleges worldwide protested for the right to study design. But the institutions insisted on closing courses: “Did none of you read Inventing the Future [by Nick Srnicek and Alex Williams, 2015] ten years ago ?” asked RISD’s president in a statement.
Fierce competition was provoked between thousands of letterpress and screenprinting workshops and robots using the same tools in remote warehouses. Many closed down. Nostalgia for craft and manual labour came at a cost. When stepping down as Dean of the School of Communication at the Royal College of Art, designer Neville Brody stated, “At best, graphic design is now a hobby. Graphic design history is literally the future”.
Bots for better living
By the time the New York Times best-seller The Automated Life was published in late 2018, nearly half of the technical graphic design schools and courses had closed. All were replaced by Adobe bots that with VR headsets could “teach Illustrator in a day”. This was part of VR for All — an imperialistic initiative by Mark Zuckerberg’s Facebook Foundation.
Students enjoyed being taught InDesign by Giambattista Bodoni in an Italianate setting without leaving the comfort of their parents’ basement. Design schools were deemed immoral by industry leaders — that is, the managers of the most highly-rated bots. Students did not want to pay high fees to learn something obsolete they could neither practise nor be paid for.
As a result, two types of design schools survived. One, a centralised, manual, nostalgic, craft school. The second, a cooperative of small, nomadic design schools built around systems thinking and political activism. The former mostly focused on the conservation of tradition and history. The latter sought to challenge the infrastructure that shapes and predefines the way people think and live. Meanwhile, the Russell Group had expanded to a global university superpower with nearly complete control of the job market in the wealthiest cities of the Global North. Its chairman declared that the future would continue to be dominated by robotics and bot studies, the most popular disciplines. In the short description downloadable to every device, it was possible to read that the Russell Group “encourages cooperation with bots for better living,
not the kind of hacktivism that seeks to disturb the normal functioning of our educational systems ”.
Beyond denial
Now, in 2025, designers are data managers. Design bots work for and with marketing bots . Graphic designers and the design press have let themselves be regulated by the marketplace. Trying to escape automation , thousands of designers have moved away from big cities to countries where this process is slowed. Others have sought solace in Ecuador, which banned automated labour in 2020. With technological, designers’ lack of interest in infrastructure was revealed to be suicidal. Companies came after graphic designers’ information and they gave it away for badges, stickers and likes.
Designers are now mostly information intermediaries. A devastating gulf has opened up between the residual manual labour of letterpress, screen-printing and calligraphy, and the long, rigorous, research-led and design-based with reflective and critical analysis. The rest — the majority of graphic designers — have disappeared, apart from a few who survive with faithful, technophobe clients.
The design practice that is not automated is the design that is not easily replicable. It bases its methods and problematisation on many disciplines and detailed cultural, social and political analysis of the context in which it works. And — importantly — it is one that constantly considers and involves those who will be affected by it, debating its consequences in an open manner. So far, bots are still flawed in developing such an approach. But not for much longer. Democratisation, accountability and transparency continue to be increasingly difficult utopias. A key issue continues to be our difficulty in understanding and changing the way algorithms make their biased decisions. They reaffirm the Western canon of good design, serving interests with increasingly obscure and inaccessible criteria. These concerns apply to the majority of creative disciplines — graphic design is by no means alone.
In 2016, anthropologist Lucy Suchman announced at the AI Now conference that the fact that “we pay coders more than childcare workers is less about skills and more about how we value the work”. The same can be said of education, culture, and of course, design. So it is not that there were not enough jobs for designers at that time, but that they were simply undervalued. Retrospectively, many disciplines regret overlooking Suchman’s writings since her book Plans and Situated Actions in 1987 and her subsequent research on automation and drone warfare. Design is no exception.
Automation was looming in the early 2010s. But designers were too busy funding nostalgia on Kickstarter via good old Modernism. Trolling OS icons on Dribbble was more entertaining than debating and dealing with a political issue that would shape the way we now work, think and live. For most designers, it is all far too late.
Hey, so you’re a monk. It’s about 1440AD and you’re just chilling out in your quarters, listening to a bit of chanting through the stone walls, practicing your black-letter while you digest your dinner. You’ve got a killer commission coming up to add some nice rubrics to a popular manuscript — The Bible — and you don’t want to fuck it up. Suddenly your pal Hildegard is bashing down your door shouting about some guy called Gutenberg: “We’re fucked dude”, he’s yelling, “that witch is gonna make us all redundant with his printing press. I’m off to become a coroner, people are always dying”. Buzz killer.
Fast forward 600 years, and the graphic designer is that stressed-out monk, and this time Gutenberg’s witchcraft is taking the form of algorithms.
Back in 2013, a research paper outlined the probability of particular occupations being replaced by intelligent machines by 2033. “Graphic designer ” is not on the list, but I’d suggest we sit somewhere between “machinist” and “actor”. The rationale for placing us there in the table is that, much like an actor, our job requires a certain level of creativity within particular bounds, and is about communicating with people. There’s also a level of technical expertise required, like a machinist.
A lot of the work we do as designers is prescriptive. We work within set screen sizes and resolutions, to standardized paper formats with grids that have been calculated proportionally. We work with colors that have been numerically serialized and indexed, and can be developed into color systems mathematically. We create palettes of type styles from typefaces that are accessible online, can be categorized based on historical developments and genres, and laid out according to a base unit. These parts are modular and mechanical, perfect for automation . And a lot of our current workflow is pretty automated anyway — consider some of those tasks that would have been completed manually in years gone by, like typesetting.
This is not new thinking, of course. The Modernists were mucking about with modular principles back in the 1950s across all creative disciplines, from art to architecture; and Shakespeare and classical musicians from medieval to modern were experimenting with numerical limitations way before that. Plus, we’ve kind of been the monk many times in our history: first it was Gutenberg, then phototypesetting, then the Mac and Adobe, and after that came digital cameras and the Internet. With each technological development came massive disruption and reaction, followed by an evolving of the role of the designer.
Tightly defined tasks can be automated pretty easily with tightly defined programming — outputs generated by hard lines of code. These kinds of algorithms have been used in design and the creative arts for some time.
London’s Field takes this automated approach into highly creative territory, its work uniting the worlds of art, technology, and design with technical flair and keen aesthetics. The studio’s work for paper company GF Smith is an interesting example of an algorithmically augmented process being applied in a commercial graphic design context. Field created a digital 3D structure with the help of an algorithm, rendering over 10,000 images of this structure from various angles and vantage points. The final part of the process was hand-editing the output of the program, making sure that each image was sufficiently stunning to be used commercially. A true designer/algorithm collaboration.
The process here is very much led by Field — from the outset they’re determining the parameters, the program, and therefore the output. It’s a human brain synthesizing experienced visual cues built up over years of working as a designer, setting the creative direction, then using an algorithm to help bring that to life. But what if you could encourage the program to synthesize the information for you, and generate an outcome based on the experience with that data?
Field, 10 000 Digital Paintings
Designer Jon Gold has been looking at applying machine-learning techniques to standard graphic design procedures. Machine-learning is an approach toward developing machine intelligence, which Andrew Ng, chief scientist at Baidu Research, and founder of the Google Brain project (software famous for identifying a cat without previously being taught what a cat is) defines as “the science of getting computers to learn, without being explicitly programmed”. Gold uses this approach to analyze typefaces and typographic trends, and generate unlikely type pairings based on what the computer has learned. He describes his exploration wonderfully in his essay, Taking the Robots to Design School.
Jon Gold, Taking the Robots to Design School
Although Gold’s work might seem niche, and applies to the narrow-AI spectrum, it gives us a taste of what we can expect our future workflow to look like. It’s easy to forget that once a model has been created with a mastery of a particular area, it can then be embedded and combined with other models that may have been trained on a very different problem — like color theory or composition, for example.
He writes, “Looking at the current crop of design tools after taking a glimpse at the future is frustrating. There is a total lack of contextual and industrial awareness in our software. The tools manipulate strings, vectors and booleans; not design. But tools are the ripest place to affect change; I’m building design tools that integrate intelligent algorithms with the design process; tools that try to make designers better by learning about what they’re doing. What we’re doing. Augmenting rather than replacing designers”.
And so here we face our own monastic crisis. History tells us that we shouldn’t be worried. Since the dawn of time we have been augmenting our limited physical capabilities in one way or another, using our opposable thumbs to fashion and grip tools — in one sense our hands are just sockets for peripheral machinery. Technology is but an extension of man, to channel McLuhan and Flusser. And it appears that it’s no different when looking at the development of design. The key here is the idea of augmentation.
Yes there will undoubtedly be casualties along the way, but it’s been a long time since we were sat in stone monasteries scratching biblical verse onto fine vellum (although Pinterest may have you thinking otherwise). The discipline has moved on. With each technological development the role of the designer has changed. We’ve likely all felt the pressure to add more strings to our bow: learn how to code , or pick up some motion graphics knowledge, and as designers we’re more multidisciplinary than ever before. It’s perfectly plausible that some of the next skills we must embrace are around machine intelligence.
AutoDesk is a software company that creates tools for the design industry, and their Dreamcatcher project is a pioneering collaboration with artificial intelligence in design. Dreamcatcher, similar to Field’s GF Smith project, is a generative design program but for physical structures. The software gives the designer a variety of ways to articulate their need, including “natural language, image inference, and CAD geometry”. Once the problem space has been outlined satisfactorily, the program gets to work sifting, sorting and optimising its way through its machine‑learned knowledge base to produce a series of solutions. It’s then down to the designer to guide the program by refining variables, or closing out various solutions.
The approach taken to the software gives us strong clues as to what our design workflow might become, and how our roles might evolve. With Dreamcatcher, the value of the designer comes less in the direct creation of form — functional or stylistic — and more in the definition of the design problem and criteria. In a video that outlines how they have
used the software to help design a pretty wild-looking car, research scientist Erin Bradner says “instead of specifying points, lines, and surfaces, a CAD designer of the future will specify goals and constraints, they’ll think at a higher level about their design problem”.
Autodesk, Bike design using Dreamcatcher
Executive creative director at SapientNitro APAC Claire Waring agrees. “AI is going to bring with it an explosion of creative possibilities that shortcut the digital design process. A designer’s role will evolve to that of directing, selecting, and fine tuning, rather than making. The craft will be in having vision and skill in selecting initial machine‑made concepts and pushing them further, rather than making from scratch. Designers will become conductors, rather than musicians”.
It’s an extremely interesting, not to mention abrupt, upending of the way some of us think of ourselves as designers. By taking this higher level, we’re not directly connected to the visual or physical output. It’s not unreasonable to think that we may one day find ourselves totally disassociated from the form-giving process, in some cases working to abstract a problem to such a degree that it’s impossible to know what forms might come from the program. We’ll trust that they will satisfy the criteria specified, but we may not know why or how.
At the beginning of each project we undertake, we receive a brief. Part of the brief relates to the purpose of this particular piece of communication, and thereafter follows a series of considerations and constraints. We approach these briefs with all the associated baggage of experience that comes with them. We’ll work through our own knowledge base for similar problems we have encountered in the past — how to avoid having to make the logo bigger, or how to suggest a more appropriate alternative to Papyrus. As demonstrated by Dreamcatcher, algorithms will approach the same brief in a totally new way. Not as a designers, graphic or otherwise, but as models of thought unbound by conventions of taste or style, and even of graphic design. There’s potential that through the use of machine intelligence we could start to probe at more fundamental questions of human communication and emotion. Deep.
At the end of the video, with a smile, Bradner anecdotally lets us glimpse her motivations. “In six years, my daughter will be 16. I want to sit down with her and design her first car. I think this is going to excite the next generation of drivers”.
That’s a wonderful thought. But I can hear our old friend Hildegard from beyond the grave: “You’re fucked, too. In 6-10 years, there won’t be any more drivers”.
As machine-learning techniques improve and computing power becomes cheaper and more powerful, algorithms will be able to tackle more and more complex scenarios.
Artificial intelligence is now quickly applied to problems in every little corner of our lives, from transportation and advertising, to food, and homes, and sex. Our habitats, behaviors, daily rituals, and relationships are going to be transformed drastically in the coming decades by this new technology. Graphic design is not an isolated discipline — our work must function within a given environment. As our environments change profoundly so will our work and our methods of working. No longer the designers ourselves, we might become stewards of algorithms, data gatekeepers closely guarding our secret stash of rare ffffound data-dumps on which to train our models.
But further than that, at a fundamental level, graphic design works as a kind of user interface; we organize information visually to allow people to navigate through and understand the world. As graphic designers we channel interactions through a primarily visual funnel, stripping out everything that can’t be accommodated in the medium. But as sensors, processing power and machine intelligence become more portable, ubiquitous, and increasingly part of the designer’s lexicon, we will one day find that our user interfaces are no longer primarily visual, but more sonic, haptic, and multi‑sensory. With that comes a brand new palette of output at our disposal.
Allow me to take this to a more extreme conclusion: We’re beginning to interface with our devices in more conversational terms as natural-language-processing algorithms improve, and in more gestural terms with improvements in computer vision and virtual reality. When coupled with renewed interest in anticipatory design, a massive signal appears pointing to a future in which graphic designers are barely required at all. But by taking a designer’s mindset to problem-framing and solving, we have skills that position us well to help shape the deployment and development of this new artificial intelligence in design; helping to develop new tools , new interfaces, and new interactions that shape future worlds in unimaginably profound ways.
Réflexions provisoires liées aux intelligences artificielles
Si vous me suivez un peu, vous avez dû remarquer que je me suis intéressé aux nouvelles avancées des programmes d’intelligences artificielles dans le domaine graphique et textuel. J’ai toujours été un peu dubitatif et méfiant (voir cynique) par rapport aux discours (souvent très marketé) autour des IA, mais depuis quelques mois avec les avancées de Stable Diffusion de Google ou du GPT‑3 d’OpenIA (et j’attends DALL‑E 2 avec impatience), mon avis a totalement changé. Autant vous le dire franchement je suis bouleversé, enthousiaste et affolé en même temps, après avoir pu expérimenter moi‑même ces nouveaux outils .
Je vais utiliser le terme « intelligence » artificielle (IA) dans ce petit texte, mais je suis bien conscient que ce terme d’intelligence est problématique (nous pourrions parler de machine à apprentissage profond, d’apprentissage automatique, d’apprentissage par renforcement, de réseau de neurones,…). Je ne suis pas un spécialiste des IA en terme technique, je suis juste un utilisateur qui essaye de trouver un usage et un moyen d’expression en utilisant ces technologies.
Petit état des lieux
Pendant des années nous avons « appris » à ces IA à reconnaitre, à partir d’ images numérisées, un chat, un chien, une voiture, un pont, un passage piéton, une police de caractère (avec les captchas par exemple),… et maintenant nous retournons la question, nous leur demandons, mais à quoi ressemble un chat pour toi ? Et c’est là que c’est passionnant, car nous découvrons littéralement un Nouveau Monde très étrange. En effet les IA ne peuvent appréhender le Monde comme nous. Elles n’auront jamais l’expérience du vécu, de la douleur, de la joie, du plaisir, de la passion, du fun…
Elles n’ont une représentation du monde qu’à travers des données numériques que nous lui avons fournies. Elles ne peuvent comprendre notre monde qu’à travers les ombres numériques projetées de notre propre réalité (un peu comme dans le mythe de la caverne de Platon, si j’ose la comparaison). Elles voient notre monde uniquement grâce aux données numériques des Internet et de nos échanges sur les réseaux. Leurs réponses ne peuvent donc qu’être biaisées, simulées et décalées par rapport à nous, humains . Nous sommes donc en face d’un sophisme numérique (un raisonnement faux malgré une apparence de vérité). Ce serait comme demander à un extraterrestre de nous décrire notre propre monde. Mais ces réponses étranges (et souvent dérangeantes comme le montre la dernière image de mon article) sont justement passionnantes et intéressantes (un art brut numérique !), car curieusement, cette mauvaise compréhension, ces approximations, ces erreurs, ces malentendus, ces collisions peuvent générer des propositions graphiques ou textuelles originales et inattendues.
Un dialogue halluciné s’installe avec des images qui s’écrivent
À la différence du design, le dialogue entre l’IA et son utilisateur se fait par le langage naturel (aucune ligne de code à écrire, pas de syntaxe rigoureuse à apprendre, pas de bug, pas de blocage…) ; s’instaure alors très vite un dialogue naturel entre l’IA et l’ humain , on écrit littéralement des images . La partie technique disparaît totalement (on rentre dans la magie), et une certaine empathie s’installe, on essaye de trouver les bons mots et des références communes afin d’obtenir un résultat satisfaisant ou étonnant. On passe d’une habilitée du geste (le dessin) à une habilité du langage. Soudain, on trouve la bonne phrase (le « prompt » parfait !) et les résultats semblent inouïs, cette phrase est semblable à une incantation magique secrète auprès d’une entité diabolique (je m’emballe un peu !). Je trouve très beau ce dialogue entre IA et humain , et ce sont ces imperfections, ces erreurs, ces glissements d’interprétations, ces malentendus qui sont si précieux.
C’est un peu comme discuter avec des enfants en bas âges en leur demandant de raconter des histoires ; ces histoires sont souvent totalement décalées ou absurdes par rapport à notre logique d’adulte, mais elles sont toujours surprenantes, originales et souvent belles. Ces étranges propositions éphémères déclenchent de nouvelles idées, de nouvelles directions de recherches (en tous cas pour moi), même si ces propositions ne sont qu’une accumulation de choses déjà réalisées (l’IA ne va rien inventer, elle collecte, remixe, puis reformule une proposition à partir de ces données).
Et c’est nous qui projetons des intentions, des idées sur les réponses de ces IA (qui ne comprennent pas vraiment ce qu’elles font, mais ce n’est pas grave).
Malheureusement, ces imperfections vont sûrement être gommées dans l’avenir (j’imagine que le but, inatteignable, est de reproduire à l’identique une intelligence et une sensibilité humaine). J’espère que l’on pourra garder quelques‑unes de ces IA un peu « pataudes » et naïves dans l’avenir.
typeface letter « A » with long hair in black and white
différentes itérations d’un même prompt
Maintenant que faisons-nous ?
Cette IA dessine mieux que moi, va mille fois plus vite et a vu et lu beaucoup plus d’ images et de livres que moi (même si elle n’a pas vraiment tout compris) : que faire ?
La production artistique et éditoriale est donc à repenser, nous allons devoir nous positionner par rapport à cet évènement en tant que designers (ou créateurs d’ images , de sons ou de texte). Pour le moment je trouve le dialogue très stimulant, et je suis dans une phase d’exploration. Je me retrouve comme un dresseur (apeuré) de fauves, essayant de canaliser une fureur productive. J’essaye de guider, de trouver un vocabulaire commun avec ces IA (qui n’ont aucun bon sens, aucune morale) afin d’avoir des textes ou des images à mon goût. Je me retrouve dans la position d’un guide, d’un directeur artistique essayant de formaliser mes idées par quelqu’un d’autre de totalement halluciné et qui ne se fatigue jamais.
L’immense avantage (il faut bien en trouver un) que nous avons par rapport à ces IA, c’est notre expérience du vécu (notre savoir « expérientiel »), notre faculté à vivre dans le monde physique. L’usage est au cœur du travail du designer, j’estime qu’une grande partie de mon travail est de proposer de nouveaux usages par rapport à une problématique précise (sociale, ludique, technique,…). Dans ce domaine, les IA ne peuvent absolument rien créer d’original, car elles n’ont justement pas cette expérience du vécu, si inspirante et créatrice d’idée. Dans mon expérience personnelle, mes idées viennent souvent de l’observation de la vie quotidienne (un enfant tenant un téléphone à l’envers, une blague, le mauvais usage d’un objet, un accident technique, un film, une chanson, un jeu,…), ou de la frustration (voir de la colère) venant d’un objet ou d’un service mal pensé. Ce mélange d’étonnement, d’émerveillement, de surprise, de colère ou de frustration créatrice ne sera « jamais » accessible à une IA et c’est donc dans ce domaine que nous devons nous différencier.
Pour conclure très temporairement, l’IA est un outil prodigieux permettant d’accroître sa créativité (avec toutes les réserves que l’on peut apporter). L’IA ne va pas créer du sens, c’est à nous d’y trouver du sens à travers nos choix, notre imaginaire et notre expérience de la vie : nous sommes condamnés à devenir intelligents comme le disait Michel Serres.
Il faut tout de même savoir (histoire de se faire très peur) que pour Balazs Kegl (responsable chez Huawei des IA), la nouvelle étape consiste à trouver des systèmes « qui agissent et interagissent avec le monde physique » afin de faire une représentation du monde la plus proche de la nôtre. Ainsi, notre seul avantage risque de se voir concurrencer prochainement par cette nouvelle étape dans le développement des IA.
Remarques (en vrac)
Dans la création d’ images , voici quelques remarques que j’ai pu observer :
Il faut utiliser des références connues : mieux vaut demander une image utilisant le style du Studio Ghibli que le style d’Étienne Mineur, ayant un peu moins d’occurrences sur Google Images. 😉
Il faut rester doux et demander gentiment de minimes variations afin d’obtenir des résultats intéressants.
Cela entraîne une standardisation du rendu.
Aucune originalité, mais une agrégation de styles et d’ images (pouvant parfois amener à découvrir tout de même une piste intéressante).
Uniquement un reflet de nos propres images
C’est un vrai flux d’ images assez angoissant (un synthétiseur d’ images ).
La vue de la production incessante et hallucinante d’ images peut parfois démoraliser et fatiguer. On ne sait plus quelle image choisir (saturation de l’utilisateur).
Surabondance, surproduction et saturation d’images sans signification par la suite (inventer une écologie de l’ image).
Le grand jeu étant de mélanger des styles totalement antagonistes (un minimalisme maximaliste…), trouver des axes de tensions…
Regarder une machine produire des images est toujours aussi fascinant.
Mieux vaut travailler au début en noir et blanc afin d’éviter d’avoir à gérer trop de paramètres.
Si j’étais story-border, concept-artist, designer textile, ou de motifs, je commencerais à m’inquiéter sérieusement.
L’IA requiert une immense quantité de puissance de calcul pour fonctionner (je n’arrive pas à trouver de chiffres précis).
Le futur (on en reparle dans 10-20 ans)
Nous pouvons déjà imaginer des jeux vidéo dans lesquels les PNJ (personnages non jouables) seraient capables d’interagir et de dialoguer avec le joueur sans obéir à de simples scripts ou à des arbres de dialogues déjà écrits. Mais nous pouvons aller plus loin, car des IA peuvent déjà quasiment « halluciner » un rendu visuel en temps réel juste à partir d’annotations.
Nous pourrions donc imaginer, dans le domaine des jeux vidéo, jouer/dialoguer avec des IA en pleine hallucination → elles nous fourniraient à l’écran des images et des animations suivant les actions du joueur, le jeu serait un vrai dialogue entre le joueur et l’IA ou chaque nouvelle partie de jeu serait unique.
Donc, plus de 3D, d’animation… juste un grand remix d’ images en temps réel proposé par les IA à partir d’ images déjà produites (dans le style de votre choix).
Il va falloir indiquer sur les images (et aussi textes, sons) : « fait avec l’aide d’une IA », un peu comme l’utilisation de l’auto-tune dans la musique.
Nous allons avoir des détecteurs d’ images faites par des IA.
Ce texte se veut un résumé des récentes observations que j’ai pu faire « sur le terrain » concernant l’arrivée soudaine du Machine Learning dans le domaine graphique (et aussi textuel). J’ai eu la possibilité de travailler et d’échanger avec beaucoup d’étudiants (Head de Genève, école Camondo, ESAD d’Orléans et l’école des Gobelins) sur ce sujet et j’ai ainsi pu voir leurs attitudes face à ces nouveaux et si puissants outils .
Comme d’habitude, je vais utiliser le terme IA pour parler de Machine Learning (deep learning,…).
Les différentes étapes d’appropriation que j’ai pu observer chez les étudiants :
L’étonnement devant la facilité que procurent ces IA dans la production d’ images (le prompt), la stupeur.
La peur (à qui appartiennent ces images , se faire copier ?…), c’est d’ailleurs une des première questions juridiques qui arrivent chez de nombreuses personnes au départ.
La pratique et le jeu avec ces IA (je vais faire un vélo en brocolis…), c’est un peu l’étape « grosse blague ».
Le début d’un projet avec un but précis (la conception d’un meuble, d’une police de caractères…) et la compréhension que ce n’est pas si évident de faire une image intéressante même avec ces outils si rapides.
Passer beaucoup plus de temps à sélectionner les images qu’à les produire (allons-nous tous devenir que des directeurs artistiques ou des commissaires d’exposition ?). Je n’ai jamais vu des étudiants réfléchir et discuter autant autour de leurs images .
Mélanger ces images artificielles avec d’autres types d’ images (photo classique, illustration…) et intégrer les IA dans leur production et pratique; considérer que c’est un nouvel outil (qui peut s’utiliser en amont, comme un générateur de planche de style, et aussi lors de la production servant à produire un vivier d’ images très important, et s’utilisent un peu comme un Pinterest ou autre bases d’ images ).
Exemples de travaux avec les étudiants de l’école Camondo lors d’un WorkShop en septembre 2022 (les images sont toutes issues de ce WorkShop)
Le groupe #01 avec Chiara Benhaiem, Abel Bourdier et Leo Meinvielle ont décidé de prendre comme modèle le dernier numéro de Vogue France et de reproduire uniquement par du texte (les prompts) les photos de ce magazine. Ils ont, au départ, pu découvrir les biais de ces systèmes de Machine Learning (« montre moi une femme très belle » = une femme ressemblant systématiquement à Cindy Crawford…), comparer les rendus des différentes IA (DALL‑E, Midjourney, Stable diffusion…), puis ont pu affiner leur vocabulaire et mieux structurer leurs textes afin de produire des images ressemblant au plus près à celles du magazine (très bon exercice, savoir copier avant de créer !). Voici quelques photos montrant ce très beau travail (voir fin d’article ; toutes les images sont artificielles, et la typographie a été rajoutée par la suite « à la main »).
Le groupe #02, constitué de Nathan Garion, Isa Broms et Stanisla Derrey, a travaillé sur des extensions de bâtiments d’architectes très connus « imaginées » par des IA. Ils se sont focalisés, vers la fin de cette semaine, sur la création d’un livre à lecture multiple permettant de voir les nombreuses possibilités proposées autour de la Villa Savoye de Le Corbusier.
Le groupe #03, avec Hind Benaissa, Alexandre Robigo et Maxime Bosq, a proposé une nouvelle espèce d’insectes fantastiques, aux couleurs vives et fluorescentes. La grande difficulté fut de garder une direction artistique cohérente durant toute la création de ces formes étonnantes (à chaque nouvelle demande, l’IA peut nous fournir des images ayant des styles très différents). À la fin de ce Workshop, les étudiants ont pu fabriquer des petites boîtes lumineuses contenant ces insectes artificiels.
Le groupe #04, Leelou Bruillot, Cléo Perrin et Jiao Mei Chen ont travaillé sur un jeu de cartes des sept familles (de designers. Les étudiantes ont choisi des objets que ces designers n’ont jamais réalisés, puis elles ont demandé à DALL‑E de générer ces étranges objets. Elles ont dû utiliser des noms de designers extrêmement connus, mais aussi avec un style très démonstratif. En effet, des designers comme Jean Prouvé ou Dieter Rams ne marchent pas très bien (trop minimalistes et trop fin pour ces fameuses IA).
Le groupe #05 avec Elodie Jochmans, Roman Levy et Arthur Brettenacher, a proposé une exposition de photos d’Henri Cartier‑Bresson totalement artificielle. Ils ont travaillé avec tous les outils disponibles de DALL‑E et DreamStudio (Outpainting, variation, prompt, retouche de zone,…). Pour la restitution de ce travail, ils ont proposé volontairement une scénographie très classique, faisant parfaitement illusion de loin et augmentant ce sentiment de surprise lors d’une observation plus attentive. Ils ont passé beaucoup plus de temps à choisir les bonnes images qu’à les produire. Nous passons du verbe à l’image, sans passer par la phase de production (ou alors très très vite), et une des pistes avec ces IA serait donc de ne plus être que des directeurs artistiques (ou commissaires d’exposition), à suivre…
Le groupe #06 avec Maxence Cuennet, Corentin Herault et Emma Pascual, a conçu un livre pour enfants (images et textes) entièrement artificiel. Ils ont utilisé GPT‑3 pour la génération de texte (avec le site https://www.copy.ai/) et Midjourney + DALL‑E pour les images . Le livre accordéon est constitué de 10 histoires totalement différentes.
Alexis Camus (groupe #07) a demandé à une IA textuelle (GPT‑3), une description d’un futur possible de notre civilisation. Il a pu ainsi écrire un texte en collaboration avec cette IA (les textes en rouge sont les « idées » de l’IA) sous la forme d’un scénario de film de science-fiction. Il a pu ainsi en dégager deux scénarios (pas très optimistes) et il en a extrait des mots-clés servant de « prompt » pour la génération d’ images dans MidJourney.
Le groupe #08 avec Suzanne Mollo, Juliette Bernaert et Illona Zeiltown, a demandé à une IA de générer du mobilier et des lampes à base de légumes et de fruits (toujours parfait avec des IA). Une fois les images produites, le groupe a commencé à fabriquer en volume ces objets afin d’aller au bout de la logique proposée par ces IA.
Le groupe #09 avec Anastasiia Hulai, Luna Barthélémy et Yifang Zhang ont travaillé sur la création d’une personne totalement fictive (ses photos, sa vie, ses productions…) et elles ont proposé à la fin de cette semaine un compte instagram résumant cette vie (artificielle) et en même temps un autre qui est le vrai compte d’une vraie personne…
groupe 01 / Vogue artificielgroupe 02 / extensions de bâtiments d’architectesgroupe 03 / insecte fantastique, aux couleurs vives et fluorescentesgroupe 04 / un jeu de cartes des sept familles (de designers)groupe 05 / une exposition de photos d’Henri Cartier-Bresson totalement artificielle
groupe 06 / un livre pour enfants (image et texte) entièrement artificiel groupe 07 / une description d’un futur possible de notre civilisationgroupe 08 / mobilier et des lampes à base de légume et de fruit (toujours parfait avec des IA)groupe 09 / création d’une personne totalement fictive (ses photos, sa vie, ses productions…)
Les attitudes des étudiants suivant leur spécialité
Les designers d’objets, les designers d’interface (UI/UX…) ne se sentent pas en danger, car ils ont compris que l’IA n’a aucun sens commun et ne produit que du style et ne peut donc pas « réfléchir » à de nouveaux usages ou fonctions (l’exemple de la création de vélo est très parlant).
Par contre, les illustrateurs, designers textiles et autres concepts artistes sont très inquiets, car ils ont conscience du terrible bluff que peuvent produire ces IA auprès d’un public non professionnel. Ces images artificielles peuvent faire illusion très facilement (et cela ne va que s’empirer au fil du temps).
Et je n’aimerais pas être un graphiste 2D ou 3D chez Ubisoft ou Rockstar Games ces prochaines années (l’impact de ces IA va être terrible dans ces sociétés proposant des images très standardisées et pseudo photoréalistes).
Comment gérer au mieux ce nouvel outil (quelques pistes provisoires)
Manier avec habileté les références culturelles dans le domaine graphique (et autres) afin de guider au mieux les IA.
Développer un imaginaire très personnel permettant de sortir de la normalisation imposée par ces IA.
Cacher ses productions des réseaux afin de rester invisible aux yeux de ces IA. Cela permettrait de se garder un jardin secret imperméable à l’insatiable prédation de ces gigantesques bases de données enrichissant les IA. Cela peut-être une stratégie intéressante, mais extrêmement complexe à mettre en œuvre (et aussi comment se faire connaître, si on se cache ?).
Développer une IA personnelle centrée sur sa propre production (ou alors ses références personnelles) permettant de ne pas affaiblir la pertinence de sa propre production lissée par les millions d’autres références.
Se focaliser sur l’empathie, la politique et l’éthique, choses que les IA ne peuvent (pour le moment) pas appréhender.
Retourner à l’artisanat, le travail manuel…
Être encore plus « intelligent » (sensible) que ces machines , être excellent dans sa pratique (on ne peut plus être « moyen »).
Se positionner, non plus en tant que simple exécutant, mais en tant qu’auteur.
Se radicaliser, au sens de refuser d’utiliser la moindre IA, voir même outil numérique dans ses productions.
La responsabilité des écoles est immense.
Les écoles vont devoir former de jeunes designers (mais aussi ingénieurs…) capables de gérer à la fois les enjeux écologiques et sociaux, et en même temps, d’apprivoiser cette arrivée massive des IA dans leur pratique. Ils vont devoir repenser le monde tout en essayant de comprendre de nouveaux outils (de nouveaux outils pour un Nouveau Monde !).
Les IA sont là, il faut donc apprendre à les gérer. On peut, par la suite, ne pas les utiliser en connaissance de cause, mais on ne peut pas les ignorer.
Personnellement, j’ai une grande confiance en la capacité des ces jeunes designers (et ingénieurs…) à s’adapter, à contourner, à apprivoiser, à questionner, à jouer, à trouver de nouveaux usages… et je suis même impatient de voir émerger de nouvelles formes, de nouvelles manières de travailler, de nouvelles manières de penser le monde avec ces outils .
Quelques remarques supplémentaires
Le risque d’une grande monotonie des images produites dans un monde récursif
Le grand danger étant la normalisation des images produites (et de notre imaginaire). Le vocabulaire permettant d’écrire les prompts est de plus en plus restreint à cause d’une censure très dure (on ne peut plus utiliser des mots comme skin, bloody, riot, warrior, battle, lesbian, virgin, Karl Marx ! sur DALL‑E). Le vocabulaire se réduit et le style des images produites est donc de plus en plus monotone et reconnaissable.
Nous pourrions même penser (je passe en mode complotiste 😉) que cette normalisation arrange les GAFAMs (Google en premier) car cela va permettre de prédire encore plus facilement nos comportements (par leurs IA). La boucle est bouclée : de faux commentaires, de faux textes, de fausses images produites par des IA et qui seront aussi lues par des IA pour les faire remonter dans les moteurs de recherche (moyennant finance)…
Nous pourrions assister à une grande perte de complexité de notre imaginaire permettant de mieux anticiper les goûts de la population par les IA des GAFAMs (il est plus facile de vendre de la publicité à des gens ayant un imaginaire commun très réduit). La normalisation culturelle n’est pas nouvelle, mais avec l’arrivée massive des IA dans la production d’ images et de textes, nous allons assister à un changement d’échelle fascinant (et terrifiant). Nous risquons de sombrer dans un monde récursif de reproductions simulées.
Simulateur de pensée
Les IA sont, pour moi, comme des simulateurs de pensées, permettant de tester des pistes créatives très rapidement, tout comme un pilote d’avion va devoir faire de nombreuses heures de simulations avant de piloter un vrai avion, nous pourrions imaginer un simulateur de pensées, d’idées… nous permettant de tester de nombreuses pistes créatives ou formelles très rapidement avant de nous lancer dans la conception d’un projet.
J’aime beaucoup me perdre et me tromper avec ces IA afin de vite recommencer et tenter de nouvelles choses. L’IA me permet d’explorer des pistes improbables (et souvent ridicules) très rapidement, chose que je me serais interdite en utilisant des outils classiques (trop long et laborieux). Parfois un heureux accident graphique, une merveilleuse collision apparaît, une « nouvelle idée » improbable se détache. Quand je parle d’idée produite par une IA, c’est bien sûr nous qui projetons une idée nouvelle sur ces productions artificielles (les IA ne font que produire, mixer, analyser, structurer…). Mais nous ( humains ) sommes des machines à projeter et créer du sens sur tout ce que nos sens perçoivent, cette profusion d’ images artificielles peut nous révéler parfois des idées nouvelles. C’est en ce sens que les IA peuvent proposer de nouvelles idées (elles dévoilent une idée sans le savoir). De plus, ces IA peuvent produire des images totalement « folles » au sens, hors de propos (sans aucune logique humaine) et c’est en cela que c’est intéressant.
Le domaine de l’art contemporain va beaucoup plus facilement intégrer les IA dans leurs pratiques (c’est déjà fait pour certains), car depuis longtemps (Marcel Duchamp !) les artistes (qui sont de petits malins) ont réglé le problème de la forme et de sa production (je caricature, bien sûr). Le centre d’intérêt de l’art n’est plus depuis longtemps sa production formelle, mais ce sont les discours, les notions d’émetteur et de récepteur, le lieu de l’exposition, la scénographie, le méta discours… qui sont dorénavant le centre d’intérêt. Savoir qui a « fabriqué » l’œuvre n’est plus un problème depuis longtemps. Il est aussi intéressant de noter que l’art contemporain s’est détaché de l’art numérique, devenu presque une pratique à part.
Un futur incertain
Je regarde ainsi avec attention les métiers (ou pratiques) menacés par l’évolution récente des « intelligences » artificielles, et je trouve de nombreux articles expliquant que les métiers les plus menacés sont les métiers aux tâches répétitives. Je pense que c’est une erreur majeure de croire cela, car au contraire, ce sont les professions dites intellectuelles et artistiques qui sont les plus menacées. Et nous ne sommes absolument pas préparés à ce qui va nous arriver (moi le premier). C’est très angoissant, mais en même temps très stimulant, car il va falloir (presque) tout réinventer dans nos métiers. C’est pour cela que les travaux et expérimentations avec les étudiants sont si importants.
Nous sommes intellectuellement en compétition avec une machine , ce qui peut être très perturbant. On se croyait intelligents, mais plus les IA avancent dans leurs champs de compétences, plus notre intelligence nous semble limitée (ou automatisable). Je suis personnellement assez vexé de voir qu’une IA est meilleure que moi dans de nombreux domaines que je croyais réservés à l’élite (c’est-à-dire à l’espèce humaine !).
Les prochaines années, vont voir apparaître de nombreuses frictions plus ou moins violentes par rapport à l’usage de ces technologies.
J’ai demandé par exemple à une IA (GPT‑3) de quelles manières le métier d’illustrateur va évoluer par rapport à l’arrivée de l’intelligence artificielle ? Voici sa réponse : « Pour survivre dans un tel environnement, l’illustrateur devra renoncer à sa révérence presque superstitieuse envers la créativité ». Je trouve cela extrêmement violent, mais assez honnête (de la part de cette IA !).
Certains professionnels vont se voir concurrencer par des amateurs produisant apparemment des images aussi convaincantes qu’eux.
Le gros problème c’est de croire que ces IA peuvent remplacer (par exemple) les illustrateurs, car c’est oublier que la création d’une image n’est pas que l’exécution d’une demande avec le dernier style visuel à la mode. La création d’une image ne se résume pas qu’à sa production (ce que fait très bien une IA). Mais malheureusement, j’ai bien peur que pour une grande majorité des gens , concevoir une image = juste la produire.
Et beaucoup ne vont y voir qu’un moyen permettant de remplacer l’ humain facilement pour une rentabilité à court terme. J’attends (avec angoisse) de voir le premier grand éditeur proclamer la disparition du métier d’illustrateur dans sa société (j’ai déjà entendu très récemment des choses pas très gentilles dans ce sens).
En même temps, cette démocratisation de la création d’ images (sans même savoir bien dessiner, sans savoir-faire) est assez intéressante. C’est un peu comme avec l’apparition des appareils photo ou caméras numériques permettant (grâce aux logiciels intégrés) de ne plus pouvoir rater une image (en terme technique). Cela a permis à toute une catégorie de personnes qui n’avait pas le savoir‑faire technique d’accéder à la création photo et cinématographique (pour le meilleur et le pire). Heureusement qu’avoir le meilleur appareil photo du monde ne fait pas de moi le meilleur photographe du monde.
Cela me fait aussi penser à l’arrivée de l’informatique (PAO) dans la chaîne graphique au début des années 90. Je suis rentrée aux arts décos en 1987, il n’y avait absolument aucun ordinateur dans les agences, en sortant de cette école en 1992, la PAO était partout, des métiers avaient disparu (photocomposeurs,…), d’autres apparaissaient et certaines compétences étaient provisoirement perdues (la qualité typographique de magazines des années 90 fut subitement extrêmement médiocre au passage à la PAO). Mais au bout de quelques années d’apprentissage et de savoir-faire, les compétences graphiques furent de nouveau honorables.
Je propose par ailleurs le terme de PPAO pour Publication Profondément Assistée par Ordinateur.
Perte du dessin :
Avec l’utilisation du « text to image » (le prompt), nous passons du verbe à l’image sans passer par un travail préparatoire d’esquisse et de dessins préparatoires…
Nous glissons d’une habileté gestuelle (le dessin) à une habileté textuelle (le prompt), mais c’est oublier que le dessin est surtout un mode de réflexion, une manière de développer ses idées très puissantes. L’expression d’une idée à travers le dessin est mon mode principal de création et de communication. Depuis notre enfance, nous avons développé notre imaginaire (et notre cer‐veau) en dessinant (à l’école maternelle par exemple), le texte est arrivé plus tard. C’est pour cela que la puissance du dessin est incomparable dans sa faculté à nous aider à développer de nouvelles idées (j’imagine que notre cerveau se « rappelle » et donc se retrouve stimulé quand on dessine). J’ai bien peur que l’utilisation systématique de ces IA pour produire de nouvelles idées (et images ), sans passer par le dessin soit problématique à long terme.
Artists say AI image generators are copying their style to make thousands of new images — and it’s completely out of their control
Greg Rutkowski is an artist with a distinctive style: he’s known for creating fantasy scenes of dragons and epic battles that fantasy games like Dungeons and Dragons have used.
He said it used to be “really rare to see a similar style to mine on the Internet”. Yet if you search for his name on Twitter, you’ll see plenty of images in his exact style — that he didn’t make.
Rutkowski has become one of the most popular names in AI art, despite never having used the technology himself. People are creating thousands of artworks that look like his using programs called AI‑image generators, which use artificial intelligence to create original artwork in minutes or even seconds after a user types in a few words as directions. Rutkowski’s name has been used to generate around 93,000 AI on one images generator, Stable Diffusion — making him a far more popular search term than Picasso, Leonardo Da Vinci, and Vincent van Gogh in the program.
“I feel like something’s happening that I can’t control”, Rutkowski, who is based in Poland, told Insider. “My name is being used a lot to generate AI images, along with the names of other working artists ”.
AI-image generators create images that are unique, rather than collages pulled from stock images. A user simply types words describing what they’d like to see, referred to as “prompts”, into a search bar. It’s a bit like searching Google Images, except the results are brand-new artworks created using the text in the user’s search terms as instructions. One of the most common prompts is to use the name of an artist to create something mimicking their style. “People are pretending to be me”, Rutkowski said. “I’m very concerned about it; it seems unethical”.
TOP: “Dragon Cage” by Greg Rutkowski. // BOTTOM: Images created when Insider typed “Dragon battle with a man at night in the style of Greg Rutkowski” into Stable Diffusion.
Simon Stålenhag, an artist and designer based in Sweden, told Insider that although he isn’t against AI‑generated art in principle, he does take issue with how some people are using the new are selling prints made by AI that have my name in the title”, he said. “Something like — ’Rusty Robot in a field in the style of Simon Stålenhag’ — which is a super aggressive way of using this technology”. He’s seen people be hostile when they share an AI‑image in his style on social media. “People have tagged me and said that they’re gonna make me lose my job or something like that, they’re really harsh and aggressive”, he said. He believes AI‑image generators are “not in the hands of artists right now. It’s in the hands of early adopters of tech”.
Rutkowski, who uses both digital tools and classic oil on canvas for his work, is worried that this explosion in imitation art means his style — which has seen him land deals with Sony and Ubisoft — might lose its value. “We work for years on our portfolio”, Rutkowski said. “Now suddenly someone can produce tons of images with these generators and sign them with our name”. “The generators are being commercialized right now, so you don’t know exactly what the final output will be of your name being used over the years”, he said. “Maybe you and your style will be excluded from the industry because there’ll be so many artworks in that style that yours won’t be interesting anymore”.
An explosion in imitation
More and more consumers are using AI‑image generators.
OpenAI, which Elon Musk cofounded in 2015, made its DALL‑E images generator open to the public in September. Before lifting the waitlist, OpenAI said the program already had more than 1.5 million users.
Liz DiFiore, the president of the Graphic Artist Guild, an organization that supports designers, illustrators, and photographers across the US, said the ease with which AI can copy styles could cause financial fallout for artists . “Artists spend a lot of time throughout their career, and make a lot of income, on being able to license their images and being sought after specifically for their style”, she said. “So if an AI is copying an artist’s style and a company can just get an image generated that’s similar to a popular artist’s style without actually going to artists to pay them for that work, that could become an issue”.
US copyright law only protects artists against the reproduction of their actual artworks — not from someone else mimicking their style. Some of the most popular AI‑image generators — which include DALL‑E, Midjourney, and Stable Diffusion — have policies in place to prevent consumers from using their products in certain ways. OpenAI, for example, prohibits the use of images of celebrities or politicians. All three programs block users from creating “harmful content” by filtering things like nudity and gore.
Insider asked representatives from DALL‑E, Midjourney, and Stable Diffusion if they have any measures in place to prevent images being created that mimic the style of working artists .
A representative for Stable Diffusion said the company was working on an opt-out system for artists who don’t want AI programs to be trained on their work. The spokesperson added that an artist’s name “is only one component of a diverse set of instructions to the AI model that creates a unique style that is different from an individual artist’s style”.
Representatives for OpenAI did not specify any measures in place to protect living artists but said the company would seek artists’ perspectives as it expanded access to DALL‑E.
Midjourney didn’t respond to Insider’s questions.
AI data training
AI-image generators “train” by learning from large sets of images and captions. Representatives from OpenAI said both publicly available sources and images licensed by the company make up DALL‑E’s training data.
Representatives for Stable Diffusion said the program uses web crawls to gather information and images .
Rutkowski thinks living artists should have been excluded from the databases that train the generators. “I’m not against the AI overall, I think it’s a good technology. But I think they should have excluded artists’ names from the program”, he said.
Another designer and illustrator, RJ Palmer, dubbed the generators actively “anti-artist” on Twitter because he said they are “explicitly trained on current working artists ”.
Artists can check if their work has been used to train AI programs on a website called Have I Been Trained, which the German artist Mat Dryhurst and the American sound artist Holly Herndon created. The pair have been working on tools to help artists opt-out of AI data-training sets. The website filters through around 5.8 billion images that are in the dataset Stable Diffusion and Midjourney use to train their programs .
Other artists feel they should have been asked for consent for their images to be scraped for the data used to train AI generators.
Stålenhag said it would have been nice to be asked if he could be included in the training data, but said it was an inevitable consequence of putting art on the Internet. “I see it as being very similar to how artists already work”, he told Insider. “We do copy other people’s ideas and styles and designs, and we take stuff”, he said, noting that he also doesn’t think AI art is good enough quality to be a “threat” at present. “There’s a hype around AI that I think is weird because I just don’t think that it’s very good”, he said. “I don’t see it as a threat because the visuals are not as good as what artists can create”.
Copyright laws around AI images are murky
It’s unclear whether copyright laws will protect the new artwork that AI programs generate . “Copyright issues around AI is probably one of the biggest areas that we are focused on”, DiFiore said, adding that it is still “a very gray area”.
Some stock‑image libraries, such as Getty Images, have refused to carry AI‑generated artwork due to the uncertainty around copyright and commercial use.
A spokesperson for the US Copyright Office told Insider that works generated only by artificial intelligence lacked the human authorship necessary to support a copyright claim. They said the office would not “knowingly grant registration to a work that was claimed to have been created solely by machine with artificial intelligence”. But it’s unclear whether a person entering search prompts into a program to create an AI artwork counts as a human‑AI collaboration.
Representatives for Stable Diffusion said while images created can be used for commercial offerings, the company wasn’t able to say whether the images would be copyrightable. They added this decision was up to individual nations at the legislative level.
Representatives for OpenAI said they think images generated by their programs can be copyrighted for commercial reasons. A spokesperson from OpenAI said: “When DALL‑E is used as a tool that assists human creativity , we believe that the images are copyrightable. DALL‑E users have full rights to commercialize and distribute the images they create as long as they comply with our content policy”. They added that “copyright law has adapted to new technology in the past and will need to do the same with AI‑generated content”.
Despite reservations, the technology’s potential also excites many artists .
Giles Christopher, a London-based commercial photographer specializing in food and drink, uses DALL‑E and other AI‑image generators to experiment with portraits and create artificial backgrounds for some of his commercial shots. “I’ve come out with images that you wouldn’t question are photographs”, he said. “Some of the arguments I’ve had from photographers are that the images are looking too good”. He thinks the genie is out of the bottle when it comes to AI, and that artists should look for ways to include it into their work. “I have friends in the industry who will storm out of the room if I even bring up using AI”, he said. But he’s keeping an open mind. “I’m still on the fence. It’s like keeping your enemies close”, Christopher said.
A portrait Giles Christopher created using artificial intelligence.