Bij een inbreuk op de beveiliging die vorig jaar plaatsvond, infiltreerde een hacker in de interne berichtensystemen van OpenAI en ontfutselde details over het ontwerp van de kunstmatige intelligentietechnologieën van het bedrijf. Het incident werd onthuld in een rapport van de New York Times, waarin werd benadrukt dat de inbreuk betrekking had op de diefstal van informatie van een online forum dat werd gebruikt door OpenAI werknemers om de nieuwste AI-ontwikkelingen van het bedrijf te bespreken.
Volgens het rapport is de hacker niet binnengedrongen in de systemen die worden gebruikt voor het huisvesten en ontwikkelen van OpenAI's AI-technologieën, waaronder het populaire ChatGPT. OpenAI, dat wordt ondersteund door Microsoft Corp (NASDAQ:NASDAQ:MSFT), heeft nog geen publieke verklaring afgelegd als reactie op het incident.
De inbreuk werd onder de aandacht gebracht van de werknemers van OpenAI tijdens een algemene vergadering in april vorig jaar en werd ook meegedeeld aan de raad van bestuur van het bedrijf. Leidinggevenden bij OpenAI kozen ervoor om de inbreuk niet publiekelijk bekend te maken omdat er geen gegevens van klanten of partners gecompromitteerd waren.
De leidinggevenden zagen de inbreuk niet als een bedreiging voor de nationale veiligheid en waren van mening dat de hacker waarschijnlijk een privépersoon was zonder banden met buitenlandse regeringen. Daarom heeft het AI-bedrijf uit San Francisco de inbreuk niet gemeld aan de federale wetshandhavingsinstanties.
In een andere ontwikkeling kondigde OpenAI in mei aan dat het vijf geheime operaties had verijdeld die probeerden zijn AI-modellen te gebruiken voor misleidende online activiteiten. Deze onthulling heeft bijgedragen aan de voortdurende bezorgdheid over het mogelijke misbruik van AI-technologieën.
De inbraak bij OpenAI komt op een moment dat de Amerikaanse overheid, onder de regering Biden, nieuwe maatregelen overweegt om Amerikaanse AI-technologie te beschermen tegen buitenlandse tegenstanders, met name China en Rusland. Deze maatregelen kunnen beperkingen inhouden voor geavanceerde AI-modellen zoals ChatGPT.
Bovendien heeft een coalitie van 16 AI-bedrijven zich in mei tijdens een wereldwijde bijeenkomst gecommitteerd aan een veilige ontwikkeling van AI-technologie. Deze stap weerspiegelt de urgentie waarmee de industrie en regelgevers het snelle tempo van AI-innovatie en de bijbehorende risico's aanpakken.
Reuters heeft bijgedragen aan dit artikel.Dit artikel is vertaald met behulp van kunstmatige intelligentie. Raadpleeg voor meer informatie onze gebruiksvoorwaarden.