|
Чуждестранните ни колеги публикуваха в глобалната мрежа потвърждение на характеристиките на предстоящия графичен ускорител GeForce GTX 780 Ti, който е производство на NVIDIA. Според данните, новият адаптер няма да замени на пазара модела GTX Titan, а ще заеме своя собствена ниша в асортимента на калифорнийския производителя. Моделът GTX Titan ще продължи да си бъде актуалното решение за разработчиците, а за провеждането на научно-изследователска работа ще осигурява висока скорост при изчисленията с двойна точност и ще предоставя на потребителите 6 GB памет. Адаптерът GeForce GTX 780 Ti на свой ред ще получи само 3 GB GDDR5 VRAM, а за 6- или 12-гигабайтови версии няма информация в Интернет. Акселераторът би трябвало да разполага с 2880 поточни CUDA-процесора, 64-битовите CUDA-ядра са 960, което е повече от GTX Titan. По този начин, единственото преимущество на "Титан" над бъдещия адаптер от NVIDIA - това са 6-те гигабайта буферна памет.Използваният в GTX 780 Ti чип GK110 има 5 графични изчислителни клъстера, 15-поточни мултипроцесора, 2880 поточни 32-битови процесора, 960 64-битови процесора, 240 текстурни и 48 растерни модула. Базовата честота на GPU трябва да бъде по-висока от тази в Radeon R9 290X на AMD, но последния в GPU Boost режим е с по-високи показатели. От гледна точка на консумацията на електроенергия, GTX 780 Ti е много по-икономичен от R9 290X, като показателят в случая е 250 вата. Имайте предвид, че NVIDIA е оборудвала новото си творение с функцията Power Balancing, която според разработчика, трябва да осигури по-висок потенциал за овърклок в новия адаптер в сравнение с предшествениците си, благодарение на по-равномерното подаване на електроенергия през интерфейса PCI-Express и конекторите 6-pin+8-pin PCI-E Power.Според публикуваните данни, GeForce GTX 780 Ti ще се предлага за $ 699, което е малко повече от препоръчителната цена на Radeon R9 290X (549 $), но е много по-малко от тази на GTX Titan (999 долара). Като цяло, популярността на модела сред ентусиастите ще зависи от това до колко видеокартата ще бъде по-производителна от топ-решението на Advanced Micro Devices. |
|