Нейросетевые советники (на основе нейронной сети)

alexes

Новичок форума
Вагон по fuzzy logic?
Да у нас в стране всего несколько человек, понимающих что это такое

Ща уже пылесосы с этим есть!)) (на ручке кнопка такая есть!! ну шоб тюль или простыню не всасать!!))
Сам пылесос все регулирует: на полу - сдабее, а по ковру - усиливается!) Кофеварки тож с нечеткой логикой есть!
А электрочайником вообще по телефону управлять можно хоть с другого континета!!!) (только нафига им управлять там если он тут??!!))
 

ддеенниисс

Активный участник
Деньги-это не обеспеченная ничем бумага.
Нейросети для форекса не используют-это глупость их использовать.
 

Omukchaan

Элитный участник
А кто хочет написать советник на нейронной сети?
Добрый день!

Сама по себе нейронная сеть ничего не может.
Если не будет многоуровневого генетического алгоритма.

Наше тело усеяно многими нейронными сетями. Но без головного мозга - эти сети ничего не дают.

Т.е. для начала нужно создать МОЗГ - генетический алгоритм.
 
  • Like
Реакции: IRIP

IRIP

VIP-участник
Наше тело усеяно многими нейронными сетями. Но без головного мозга - эти сети ничего не дают.

Т.е. для начала нужно создать МОЗГ - генетический алгоритм.

можно вполне расширить - сказав что нейросети управляются отдельно
спинным, отдельно головным мозгом
и там и там тоже есть отдельные участки, отвечающие за отдельные функции

вот только нейросети - нельзя загонять в рамки "сетов"
или "настроек" ...

это изначально неправильный подход
 

IRIP

VIP-участник
Например, есть сложная структура

1625066112695.png

Ну рисунке выше можно увидеть три слоя сети - Слой 1 является входным слоем, где сеть принимает внешние входные данные. Слой 2 называют скрытым слоем, этот слой не является частью ни входа, ни выхода. Примечание: нейронные сети могут иметь несколько скрытых слоев, в данном примере для примера был показан лишь один. И наконец, Слой 3 является исходным слоем. Вы можете заметить, что между Шаром 1 (Ш1) и Шаром 2 (Ш2) существует много связей. Каждый узел в Ш1 имеет связь со всеми узлами в Ш2, при этом от каждого узла в Ш2 идет по одной связи к единому выходному узлу в Ш3. Каждая из этих связей должна иметь соответствующий вес.

Например, предполагаю, каждый слой отвечает за выделение одного из "параметров" в общей ленте котировок

1625066213708.png

первый, отвечает за прием данных, в виде
дата / открытие / максимум / минимум / закрытие / объем

второй слой, отвечает за разбивку на таймфреймы (произвольные, удобные только ему? / или фиксированные "стандартные" типа М1, м5, м15, м30, ... д1, неделя, месяц?)

третий слой, отвечает, например, за что? За покупку или продажу?
по цене и результат?

источник proglib.io/p/neural-nets-guide
 
Последнее редактирование модератором:

IRIP

VIP-участник
apsheronsk.bozo.ru/Neural/Hebb_code.html

Пример кода нейронной сети обучающейся без учителя​


Краткое описание глобальных переменных:

HEBB, SIGNAL_HEBB, KOHONEN – типы обучения нейросети. Присваивается в переменной LEARNING_TYPE.



Layers – количество слоев нейронной сети, определяется автоматически из заданного массива GNeuro[]. В GNeuro первый элемент – это количество входов, последний – количество выходов нейросети. То, что между – соответственно количество нейронов скрытых слоев. Например:

GNeuro[4, 8, 12, 6] – задает нейросеть с 4 слоями, во входном слое 4 нейрона (которые только распределяют входной сигнал на следующий слой), 8 – количество нейронов в первом скрытом слое, 12 – количество нейронов во втором скрытом слое, 6 – количество нейронов в выходном слое.

GMatrix – матрицы весов сети, первое измерение – номер слоя -1, дальше i и j матрицы.

Input – входной вектор;

Output – выходной (предустановленный – не используется).

Краткое описание функций:

start() – собственно здесь пишется последовательность функций, которые надо выполнять.
SetParams() – установка параметров сети, инициализация матриц.
InitNet() – загоняем рандомом веса синаптических связей нейросети.
Calc() – расчет выхода нейросети по заданному номеру входного образца.
TestCalc() – тестовая, для проверки правильно ли перемножает сеть матрицы и вектора.
SetIO() – установка входов.
Hebb() – здесь в цикле рандомом выбираются примеры для обучения и сеть пытается обучиться.

Если имеются благодарности, то они принимаются на WMR R398365873120 :)

Возможна доработка исходников под конкретную задачу (за отдельную плату).

С Уважением, к.т.н. Шумков Е.А. (КубГТУ)
[email protected]

Реализация многослойного персептрона с обучением по правилу Хебба:
Expand Collapse Copy
// Реализация многослойного персептрона с обучением по правилу Хебба (MQL4, Metatrader)

так как код нельзя вставить, прикрепляю его ниже
 

Вложения

Последнее редактирование модератором:

IRIP

VIP-участник
shumkoff.ru/works.php

Шумков Евгений Александрович
Список научных трудов (статьи, тезисы конференций, патенты)
 
Последнее редактирование модератором:
Верх