OpenAI en Anthropic, twee vooraanstaande AI startups, hebben overeenkomsten gesloten met de Amerikaanse overheid om hun modellen voor kunstmatige intelligentie verder te onderzoeken, testen en evalueren. Het Amerikaanse Artificial Intelligence Safety Institute kondigde de partnerschappen vandaag aan en markeert daarmee een belangrijke stap in het toezicht op AI-technologieën.
Deze overeenkomsten zijn vooral opmerkelijk omdat ze plaatsvinden te midden van verhoogde aandacht van de regelgevende instanties voor de ethische en veilige inzet van AI. Californië staat op het punt om te stemmen over uitgebreide wetgeving die de ontwikkeling en het gebruik van AI in de staat moet reguleren.
De voorwaarden van de overeenkomsten geven het U.S. AI Safety Institute toegang tot belangrijke nieuwe AI-modellen van beide bedrijven voor en na publicatie. Deze samenwerking is bedoeld om de mogelijkheden en potentiële risico's van deze AI-modellen te beoordelen.
Jason Kwon, de chief strategy officer van OpenAI, bekend van het creëren van ChatGPT, benadrukte het belang van de rol van het instituut in het vestigen van Amerikaans leiderschap in AI-ontwikkeling. Kwon benadrukte het potentieel van deze samenwerkingen om als basis te dienen voor wereldwijde standaarden in AI.
Anthropic, gesteund door techgiganten Amazon (NASDAQ:AMZN) en Alphabet (NASDAQ:GOOGL), heeft nog geen verklaring afgelegd over de deal.
Elizabeth Kelly, de directeur van het Amerikaanse AI Safety Institute, benadrukte de overeenkomsten als een cruciaal startpunt voor het begeleiden van de verantwoorde voortgang van AI-technologie.
Het Amerikaanse AI Safety Institute, dat verbonden is aan het National Institute of Standards and Technology (NIST) van het ministerie van Handel, zal ook samenwerken met het Britse AI Safety Institute. Hun gezamenlijke inspanningen omvatten het geven van feedback aan de bedrijven over mogelijke veiligheidsverbeteringen voor hun AI-modellen.
Dit initiatief van het Amerikaanse AI Safety Institute sluit aan bij een vorig jaar door president Joe Biden uitgevaardigd bevel. De order is gericht op het aanpakken van bekende en opkomende AI-risico's en versterkt de toewijding van de regering aan veilige AI-innovatie.
Reuters heeft bijgedragen aan dit artikel.Dit artikel is vertaald met behulp van kunstmatige intelligentie. Raadpleeg voor meer informatie onze gebruiksvoorwaarden.