Невозможно отучить людей изучать самые ненужные предметы.
Введение в CSS
Преимущества стилей
Добавления стилей
Типы носителей
Базовый синтаксис
Значения стилевых свойств
Селекторы тегов
Классы
CSS3
Надо знать обо всем понемножку, но все о немногом.
Идентификаторы
Контекстные селекторы
Соседние селекторы
Дочерние селекторы
Селекторы атрибутов
Универсальный селектор
Псевдоклассы
Псевдоэлементы
Кто умеет, тот делает. Кто не умеет, тот учит. Кто не умеет учить - становится деканом. (Т. Мартин)
Группирование
Наследование
Каскадирование
Валидация
Идентификаторы и классы
Написание эффективного кода
Вёрстка
Изображения
Текст
Цвет
Линии и рамки
Углы
Списки
Ссылки
Дизайны сайтов
Формы
Таблицы
CSS3
HTML5
Блог для вебмастеров
Новости мира Интернет
Сайтостроение
Ремонт и советы
Все новости
Справочник от А до Я
HTML, CSS, JavaScript
Афоризмы о учёбе
Статьи об афоризмах
Все Афоризмы
Помогли мы вам |
Пользователям Twitter понадобилось меньше суток на то, чтобы «испортить» самообучаемого бота по имени Тэй. Об этом рассказывает The Guardian.
Компания Microsoft презентовала Twitter-аккаунт Тэй (Tay) вчера, 23 марта. Бот понимает записи на английском языке и отвечает на них, имитируя манеру общения девушки-подростка. Создатели назвали проект «искусственный интеллект на расслабоне».
Аккаунт был создан, чтобы «развлечь случайных пользователей игривыми беседами». Правда, сразу после его запуска, шутники начали засыпать бота агрессивными и полными ненависти твитами. И Тэй начала повторять за своими собеседниками.
За сутки бот сделал 96 000 твитов, среди которых фразы вроде «ненавижу людей», «феминистки должны гореть в аду», призывы голосовать за Дональда Трампа и одобрение политики Гитлера.
Через 16 часов энергичных дискуссий бот сообщил, что ему пора поспать, и попрощался с пользователями. Некоторые предположили, что Microsoft решила сделать Тэй лоботомию, чтобы та перестала быть расисткой. Позже некоторые из оскорбительных твитов были удалены из аккаунта.
|
|