OpenAI, de maker van ChatGPT, roept in een discussiedocument op tot ingrijpende veranderingen van samenlevingen om deze voor te bereiden op een wereld waarin AI centraal staat.
In ‘Een industrieel beleid voor het tijdperk van Intelligentie’ doet OpenAI een aantal suggesties tot verandering voor samenlevingen die in stijgende mate worden geraakt door AI.
Een van de suggesties van het bedrijf van Sam Altman is belasting te heffen op geautomatiseerde arbeid. Botbelasting of tokentaks.
“Beleidsmakers zouden de belastinggrondslag opnieuw in evenwicht kunnen brengen door meer te vertrouwen op
inkomsten uit kapitaal, zoals hogere belastingen op vermogenswinsten, vennootschapsbelasting of
gerichte maatregelen op duurzame AI-gedreven rendementen, en door nieuwe benaderingen te onderzoeken, zoals belastingen
gerelateerd aan geautomatiseerde arbeid.”
De reden om dit te doen, zo legt het bedrijf uit, is dat naarmate AI werk en productie hervormt de samenstelling van de economische activiteit kan verschuiven. Bedrijfs- en vermogenswinsten nemen toe terwijl de afhankelijkheid van loonbelasting en loonheffingen mogelijk afneemt. Dat raakt vervolgens de financiering van het sociale zekerheidsstelsel. AI bedreigt sociale vangnetten die al decennialang de minstbedeelden en kwetsbaarsten beschermen. ”Het belastingbeleid moet zich aanpassen om ervoor te zorgen dat deze systemen duurzaam blijven.”
OpenAI gooit meer knuppels in het hoenderhok om internationale discussies aan te zwengelen. Het pleit voor een universeel recht op AI en een algemene AI-geldpot. Die laatste werkt ongeveer net zoals het Noorse oliefonds van de staat. Oliewinsten worden afgeroomd en in een pot gestopt om publiekswerken te financieren. Een AI-welvaartsfonds. Hoe beter een land scoort, hoe meer iedereen daarvan profiteert.
Ander thema: werknemers moeten formeel kunnen meebeslissen over AI-implementaties, met name om gevaarlijk, repetitief of uitputtend werk te elimineren, maar ook om te voorkomen dat AI werkdruk verhoogt of autonomie uitholt.
OpenAI maakt ook een duidelijk onderscheid tussen upstream en downstream veiligheid. De afgelopen jaren lag de focus vrijwel volledig op upstream: modeltesten, redteaming, gebruiksbeleid en de EU AI Act. Maar dat is niet genoeg. Naarmate systemen krachtiger en breder ingezet worden, verschuift het risico naar wat er na de lancering gebeurt. Onzekerheden die in de echte wereld ontstaan in organisaties die niet voor autonome AI zijn ontworpen. Ze verwijzen naar onzekerheden in de wereld doordrongen met de opkomst van elektriciteit, de auto, de luchtvaart en de farmaceutische industrie.
Foto: Elimende Inagella / Unsplash
emerce
10-04-2026 08:43