fbpx
Изкуствен интелектНа фокусНаука и технологии

ChatGPT и науката: системата за изкуствен интелект зa добро или лошо придоби реална сила през 2023 г.

Невронните мрежи и изкуственият интелект (ИИ) през 2023 година вдигнаха много шум около себе си и дори успяха да влязат в научни класации, в които обикновено включват само хора, Технологията отбеляза началото на революцията на генеративния изкуствен интелект. Гордото творение на човешките ръце, генеративният изкуствен интелект е зашеметяваща имитация на самия човешки ум. Това представлява потенциално нова ера в научните изследвания, но също така носи със себе си и високи рискове. Но така или иначе връщане назад няма.

Изкуственият интелект вече действа като съавтор на научни статии и не винаги явно. Той има опит в писането на текстове за презентации, кандидатстване за безвъзмездни средства и програми за обучение, писане на компютърен код. Изкуственият интелект вече се включва като събеседник на учените, обсъждайки техните идеи. От друга страна имаше случаи, когато той измисляше връзки, променяше факти и насаждаше омраза. Но това, което правеше най-успешно, беше да пленява умовете на хората: той беше послушен, завладяващ, забавен и дори плашещ. ChatGPT беше такъв, какъвто неговите събеседници искаха да го виждат, но понякога оставяше абсолютно противоположното впечатление.

Но защо да включваме компютърна програма в списъка на личностите, определили лицето на науката през 2023 г.? В края на краищата ChatGPT не е човек. Все пак през последната година в много отношения тази програма оказа дълбоко и широкообхватно въздействие върху науката.

По принцип единствената задача на ChatGPT е правдоподобно да продължава диалозите въз основа на езиковите моделите, с помощта на които той е бил обучаван. Но в същото време той и другите програми за генеративен изкуствен интелект промениха и ще променят начина, по който работят учените и оказва влияние на техните изследователски методи. Възходът на тези технологии възобнови и отново направи актуални много позатихнали дискусии. Например за това къде трябва да търсим границите на възможностите на ИИ. Или за природата на човешкия интелект, какво всъщност представлява човешкото съзнание и как най-добре да се регулира взаимодействието между него и машинното съзнание. Ето защо през 2023 г. нечовешкото същество ChatGPT беше добавено в рейтинга за 2023 г. Nature’s 10 на едно от най-уважаваните научни издания Nature..

Някои учени отдавна са наясно с потенциала, който имат големите езикови модели (LLM). Но за мнозина именно появата на ChatGPT като безплатен партньор за разговор през ноември 2022 г. беше възможност бързо да научат възможностите и превратностите на тази технология. Програмата е създадена от изследователи в OpenAI в Сан Франциско, Калифорния; сред които е и Иля Суцкевер, чието име също фигурира в челната десетка на Nature за 2023 г. Системата ChatGPT е изградена с помощта на невронна мрежа със стотици милиарди параметри, която е обучена върху онлайн набор от книги и документи, оценени на десетки милиони долари. В допълнение, за редактирането и оценката на отговорите на бота бяха привлечени много допълнителни работници. Това оказа още по-голямо влияние върху неговото окончателно формиране. През 2023 г. OpenAI подобри базовия LLM na ChatGPT и го свърза с други програми, така че да може да приема и създава изображения, както и да работи с математически и кодови програми. Други компании в индустрията също екстренно започнаха да създават негови конкуренти.

За някои изследователи тези приложения вече са се превърнали в безценни помощници в лабораторната им работа – те помагат за обобщаване на данни или писане на документи, подобряват работата на софтуера и пишат програмни кодове. ChatGPT и свързаният с него софтуер могат да помагат при осъществяването на „мозъчна атака“, да подобряват научните алгоритми на търсачките и да идентифицират пропуски в библиографиите. Моделите, обучени върху научни данни, могат да допринесат за разработването на ИИ системи, които да предложат нови пътища и насоки за учените да продължат своите изследвания. Така например Маринка Зитник, разработваща система с изкуствен интелект за медицински изследвания в Харвардското медицинско училище в Бостън посочва, че такива системи са в състояние да моделират нови молекули или поведението на клетките.

Но тази технология може и да е опасна. Автоматизираните събеседници могат да се използват от измамници и плагиати. Ако бъдат оставени без контрол, те могат да причинят непоправима вреда на общото научно познание. Информация, създадена от ИИ и която може да се счита за секретна, вече започна да изтича в интернет, а някои учени признаха, че използват ChatGPT за писане на статии, като премълчават за това.

Освен това остават проблемите с грешките и пристрастията. На всичкото отгоре те са заложени в самия принцип на функциониране на генеративния ИИ. Големите езикови модели изграждат модел на света, представящ възможните езикови взаимоотношения, а след това възпроизвеждат правдоподобни образци от това разпределение, без да имат възможност за преценка за истинност или лъжа. Това например води до програми, възпроизвеждащи исторически пристрастия или неточности, които те са получили като данни в процеса на обучение. Освен това вече има случай, когато те използват измислена от тях информация, например несъществуващи научни цитирани статии.

Някои учени, например като Емили Бендер, компютърен лингвист от Вашингтонския университет в Сиатъл, не виждат подходящи способи за използването в науката на подобен вид изобретения. Тя ги нарича просто „синтетични машини за създаване на текст“. Според нея ChatGPT оказва голямо влияние върху обкръжаващата среда. На него не са му чужди пристрастията, които могат да бъдат източник на проблеми и е в състояние да подведе събеседниците си да мислят, че отговорите на бота всъщност идват от човек. Освен това вече са заведени дела срещу OpenAI за кражба на данни и компанията беше обвинена в използване на експлоататорски трудови практики (наемане на фрийлансъри срещу ниско заплащане).

Мащабът и сложността на LLM системите означава, че те по своята същност са „черни кутии“. При тях е много трудно да се разбере докрай защо те генерират това, което генерират, при положение, че информацията за кодовете, с които те работят, и данните, на които са били обучавани, не могат да бъдат открити в публичното пространство, какъвто е случаят с ChatGPT. Използването на LLM с отворен код нараства, но засега тези модели са с по-малки възможности от по-големите програми със затворен код.

Някои държави създават национални изследователски проекти за изкуствен интелект, така че учените неработещи за големите корпорации в тази област, да могат да създават и изучават големите генеративни изкуствен интелект. Въпреки това остава неясно дали регулирането ще може да принуди разработчиците на ИИ да разкриват информация за кода на своите платформи и да предвиждат средства за безопасност.

Никой в момента не знае на какво друго са способни системи подобни на ChatGPT. Вероятно възможностите на подобни системи са все още ограничени от наличната изчислителна мощност или нови данни за обучение. Но едно е сигурно – генеративната ИИ революция вече започна. И връщане назад няма .

Източник

5 1 vote
Article Rating
Subscribe
Notify of
guest
0 Comments
Inline Feedbacks
View all comments

Харесайте ни :-)


This will close in 25 seconds

0
Would love your thoughts, please comment.x
()
x