Na de omwenteling van de markten, wordt de Chinese kunstmatige inlichtingenstartup Deepseek beschuldigd van het gebruik van het model van het concurrerende bedrijf Openai om haar chatbot te trainen. De presentatie op 10 januari van Deepseek’s kunstmatige intelligentie-assistent, gebaseerd op het diepeek-V3-model, evenals de presentatie op 20 januari van het R1-model, schokte Silicon Valley en gooide de aandelen van technologiebedrijven als de lage groeikosten en het gebruik van De Chinese startup zorgde ervoor dat beleggers plannen voor enorme uitgaven van de beste Amerikaanse kunstmatige intelligentiebedrijven uitdagen.
Openai en de grootste belegger, Microsoft, onderzoeken of Deepseek op een ongeautoriseerde manier gegevens heeft verkregen, nadat gevallen van mensen die grote datavolumes uit Openai-producten hebben geëxporteerd, werden waargenomen, zei Bloomberg News. Inderdaad, volgens dezelfde kwestie meldt de Financial Times dat Openai, geleid door Sam Altman, gegevens heeft gezien over de techniek die “destillatie” wordt genoemd en gelooft dat Deepseek het heeft gebruikt. De term verwijst naar het proces van het overbrengen van kennis van een groot model naar een kleinere en is een gebruikelijke praktijk in de industrie.
Als dit het geval is, is dit een schending van de voorwaarden van OpenAI-diensten. De gebruiksvoorwaarden geven aan dat gebruikers geen van zijn services kunnen “kopiëren” of “de resultaten gebruiken voor het ontwikkelen van modellen die concurreren met OpenAI”. Openai is echter ook bekritiseerd vanwege zijn eigen benadering van het intellectuele eigendom van anderen. Kenmerk is de rechtszaak van de Amerikaanse krant New York Times die eist dat het wordt gecompenseerd voor ongeoorloofd gebruik van teksten en informatie op haar website door OpenAI. Hoe dan ook, vermoedens zouden een nieuw front in de “strijd” tussen de VS en China kunnen openen voor superioriteit in de technologie.
David Sax, benoemd door de Amerikaanse president Donald Trump als een “tsaar” van kunstmatige intelligentie en cryptocurrencies, zei dinsdagavond dat er aanwijzingen waren van technische destillatie toen een kunstmatig intelligentiemodel herhaaldelijk een andere vragen stelde over hoe te antwoorden. “Er zijn aanwijzingen dat Deepseek heeft gedaan om kennis te krijgen van Openai-modellen en ik denk niet dat Openai er blij mee is,” zei hij en zei dat de toonaangevende kunstmatige inlichtingenbedrijven nu stappen zouden ondernemen om dergelijke incidenten te voorkomen.