2 Minuten
DeepSeek, sparčiai auganti dirbtinio intelekto startuolis, neseniai pristatė naujausią DI modelį – R1. Šis modelis pasižymi išskirtiniais rezultatais sprendžiant matematines užduotis ir programuojant. Tačiau informacija apie DeepSeek R1 treniravimo duomenų šaltinius nebuvo viešai atskleista, dėl ko tarp DI tyrėjų kilo spėlionės, jog dalis duomenų galėjo būti panaudota iš Google Gemini modelių.
Kaltinimai dėl duomenų panaudojimo
Melburno programuotojas Sam Peach, kuris kuria testus dirbtinio intelekto modelių „emociniam intelektui“ vertinti, teigia turintis įrodymų, kad DeepSeek R1-0528 modelis naudoja žodžius ir sakinių struktūras, būdingas Gemini 2.5 Pro modeliui. Socialinio tinklo X įraše Peach nurodė, jog R1-0528 linkęs rinktis tam tikras kalbines struktūras, kurios taip pat stebimos Gemini 2.5 Pro modelyje.
Nors Peach teiginiai nėra laikomi galutiniu įrodymu, kitas kūrėjas, žinomas kaip SpeechMap ir atliekantis „saviraiškos laisvės“ vertinimus DI modeliuose, pažymėjo, kad DeepSeek modelio sprendimų priėmimo procesai panašūs į Gemini modelių veikimą, ypač sprendžiant užduotis ar pateikiant atsakymus.
Ankstesnės situacijos ir kaltinimai
Šie kaltinimai – ne pirmi DeepSeek istorijoje. Anksčiau kai kurie kūrėjai pranešė, kad DeepSeek V3 modelis dažnai prisistatydavo kaip ChatGPT, kas galėjo reikšti, jog mokymui buvo naudota ChatGPT pokalbių istorija. OpenAI anksčiau yra išreiškusi nuomonę, jog DeepSeek naudoja „distiliacijos“ metodą – tai metodika, kai mažesni modeliai mokomi iš galingesnių modelių sukauptų duomenų.
Iššūkiai DI modelių treniravime
DI bendruomenė pripažįsta, kad daug modelių gali netyčia klaidingai identifikuoti save ar taikyti panašią kalbą dėl didelio DI sugeneruoto turinio kiekio internete. Interneto duomenys yra pagrindinis daugelio dirbtinio intelekto modelių treniravimo šaltinis, todėl kalbos ir elgesio persidengimas tarp atskirų modelių tampa neišvengiamas. Dėl to sunku tiksliai atskirti savarankiškai kurtus modelius nuo tų, kurie buvo paveikti esamų DI modelių.
Išvados
Atsiradę įtarimai dėl DeepSeek R1 modelio treniravimo duomenų parodo, kokie sudėtingi ir etinių klausimų kupini yra DI modelių kūrimo procesai. Kadangi dirbtinio intelekto sritis sparčiai vystosi, būtina užtikrinti didesnį skaidrumą apie modelių treniravimą ir panaudotus duomenų šaltinius. Tai svarbu siekiant išlaikyti pasitikėjimą ir atsakingą DI technologijų plėtrą. Nuolatinė priežiūra ir diskusijos bendruomenėje padės spręsti šiuos iššūkius ir skatins atsakingą dirbtinio intelekto vystymąsi.
Quelle: smarti
Kommentare