Сундар Пичай: ИИ може да укрепи киберзащитата, а не само да я разруши
Писателят е главен изпълнителен директор на Google и Alphabet
Миналата година видяхме бърза и значителна технологична промяна, задвижвана от напредъка в изкуствения интелект . Милиони хора сега използват AI инструменти, за да учат нови неща и да бъдат по-продуктивни и креативни. Тъй като прогресът продължава, обществото ще трябва да реши как най-добре да оползотвори огромния потенциал на ИИ, като същевременно се справи с неговите рискове.
Нашият подход в Google е да бъдем смели в амбицията си ИИ да носи полза на хората, да стимулира икономическия прогрес, да напредва в науката и да се справя с най-належащите обществени предизвикателства. И ние се ангажираме да разработваме и внедряваме AI отговорно: моделите Gemini, които стартирахме през декември, които са нашите най-способни досега, преминаха през най-стабилните оценки на безопасността, които някога сме правили.
В четвъртък посетих Института Кюри в Париж, за да обсъдим как нашите AI инструменти биха могли да помогнат с пионерската им работа върху някои от най-сериозните форми на рак. В петък, на Мюнхенската конференция по сигурността, ще се присъединя към дискусии за друг важен приоритет: въздействието на ИИ върху глобалната и регионалната сигурност.
Лидерите в Европа и на други места изразиха притеснения относно потенциала на ИИ да влоши кибератаките. Тези опасения са оправдани, но с правилните основи AI има потенциала с течение на времето да укрепи, а не да отслаби световната киберзащита.
Използването на AI може да обърне дилемата на така наречения защитник в киберсигурността, според които защитниците трябва да успеят в 100 процента от времето, докато нападателите трябва да успеят само веднъж. Тъй като кибератаките вече са предпочитан инструмент за участници, които се стремят да дестабилизират икономиките и демокрациите, залозите са по-високи от всякога. По принцип трябва да се предпазим от бъдеще, в което нападателите могат да правят нововъведения, използвайки AI, а защитниците не могат.
За да дадем възможност на защитниците, започнахме да вграждаме подходи на изследователи и AI в екипите на Google за киберсигурност преди повече от десетилетие. Съвсем наскоро разработихме специализиран голям езиков модел, фино настроен за сигурност и разузнаване на заплахи.
Виждаме начините, по които AI може да подсили киберзащитата. Някои от нашите инструменти вече са с до 70 процента по-добри при откриването на злонамерени скриптове и до 300 процента по-ефективни при идентифицирането на файлове, които използват уязвимости. И AI се учи бързо, като помага на защитниците да се адаптират към финансови престъпления, шпионаж или фишинг атаки като тези, които наскоро удариха САЩ, Франция и други места.
Тази скорост помага на нашите собствени екипи за откриване и реагиране, които са спестили време от 51 процента и са постигнали резултати с по-високо качество, използвайки генериращ AI. Нашият браузър Chrome проверява милиарди URL адреси срещу милиони известни злонамерени уеб ресурси и изпраща повече от 3 милиона предупреждения на ден, защитавайки милиарди потребители.
Овластяването на защитниците също означава да се уверите, че системите с изкуствен интелект са защитени по подразбиране, с вградена защита на поверителността. Този технически прогрес ще продължи. Но улавянето на пълната възможност за сигурност, задвижвана от AI, надхвърля самата технология. Виждам три ключови области, в които частните и публичните институции могат да работят заедно.
Първо, регулиране и политика. Миналата година казах, че ИИ е твърде важен, за да не се регулира добре. Европейският закон за ИИ е важно развитие в балансирането на иновациите и риска. Докато други обсъждат този въпрос, изключително важно е управленските решения, които вземаме днес, да не накланят везните в грешната посока.
Инициативите в областта на политиката могат да укрепят нашата колективна сигурност — например чрез насърчаване на обединяването на набори от данни за подобряване на моделите или проучване на начини за въвеждане на AI защити в критични инфраструктурни сектори. Диверсифицирането на доставките на технологии в публичния сектор може да помогне на институциите да избегнат рисковете от разчитането на един единствен доставчик.
Второ, AI и обучение за умения, за да се гарантира, че хората имат дигиталната грамотност, необходима за защита срещу киберзаплахи. За да помогнем, стартирахме Инициатива за възможности за изкуствен интелект за Европа, за да предоставим набор от основно и напреднало обучение за изкуствен интелект. Ние също така подкрепяме иновативни стартиращи компании, като ръководената от Украйна компания LetsData, която предоставя „AI радар“ в реално време срещу дезинформация в повече от 50 държави.
Трето, имаме нужда от по-задълбочено партньорство между бизнеса, правителствата и академичните среди и експертите по сигурността. Нашият инженерен център за безопасност в Малага е фокусиран върху кръстосано сътрудничество, което повишава стандартите за сигурност за всички. В същото време глобалните форуми и системи — като Frontier Model Forum и нашата Secure AI Framework — ще играят важна роля в споделянето на нови подходи, които работят.
Защитата на хората в отворена, глобална мрежа е спешен пример защо се нуждаем от смел и отговорен подход към ИИ. Не е единственият. Подпомагането на изследователите да идентифицират нови лекарства за болести, подобряването на предупрежденията по време на природни бедствия или отварянето на нови възможности за икономически растеж са също толкова спешни и ще се възползват от отговорното разработване на AI. Напредъкът във всички тези области ще бъде от полза за Европа и света.