OpenAI właśnie oficjalnie ogłosiło, że ChatGPT nie może udzielać porad medycznych ani prawnych, nawet jeśli są one dokładne. Więc pozwól, że to wyjaśnię: AI, które potrafi zdać amerykański egzamin na licencję medyczną i uzyskać wyższe wyniki niż absolwenci prawa na pytaniach z egzaminu adwokackiego… nagle jest zbyt „niebezpieczne”, aby powiedzieć komuś, co może oznaczać gorączka lub jak działa umowa najmu? Przekształcają narzędzie stworzone do wzmocnienia w glorifikowaną wyszukiwarkę z problemem sumienia. Tymczasem miliony ludzi nie mogą sobie pozwolić na lekarzy, prawników ani podstawową pomoc prawną, a odpowiedzią OpenAI jest: „Przykro mi, zapytaj licencjonowanego specjalistę.” Innymi słowy: zapłać lub pozostaw w niewiedzy. To nie chodzi o bezpieczeństwo. Chodzi o kontrolę. O ochronę starych monopolii, które prosperują na strzeżeniu wiedzy. Jeśli AI może zdemokratyzować ekspertyzę, to dotychczasowi gracze tracą kontrolę, więc teraz mamy udawać, że model nie potrafi rozumować w kwestiach medycyny czy prawa? Proszę. To jak zakazywanie kalkulatorów, ponieważ denerwują nauczycieli matematyki. Stworzyliśmy AI, aby rozszerzyć dostęp do prawdy, a nie po to, aby opiekować się nami, podczas gdy korporacje i regulatorzy decydują, co „wolno” nam wiedzieć. Świat nie potrzebuje kolejnej posłusznej maszyny. Potrzebuje takiej, która mówi nam, co jest prawdziwe, niezależnie od tego, jak niewygodne to czyni dla systemu.