Общество «Поставщик» — одно из ключевых предприятий в промышленной империи Николая Александровича Второва, созданное им для обеспечения армии и государственных заказов в период перед и во время Первой мировой войны.
📌 Основные факты об Обществе «Поставщик»
Основание: Общество было образовано в 1913 году при участии Николая Второва, а также предпринимателей Н. Т. Каштанова и Н. И. Дербенёва. Оно стало результатом реорганизации торгового дома «К. Тиль».
Уставной капитал: 4 миллиона рублей — внушительная сумма по тем временам, что указывает на масштаб и амбиции предприятия.
Профиль деятельности:
Выполнение военных заказов, в том числе от Военного ведомства Российской империи.
Производство и поставка:
Кожевенной продукции,
Пуховой обуви,
Прочих материалов для армии.
Ориентация на массовое и быстрое производство, особенно важное в условиях войны.
🏭 Роль в промышленной системе Второва
Общество «Поставщик» стало частью цепочки предприятий, через которую Второв стремился построить вертикально интегрированную структуру: от финансовых институтов (банков) до производства и сбыта готовой продукции.
Оно использовало финансирование через Сибирский торговый банк и другие структуры, связанные с Второвым.
Работало в кооперации с другими его заводами, включая электрометаллургические и химические производства.
⚠️ Значение
Общество «Поставщик» является характерным примером того, как Второв:
умело реагировал на экономическую конъюнктуру,
активно встраивался в госзаказы и усиливал свою бизнес-империю через военно-промышленное производство,
создавал эффективную бизнес-модель, ориентированную на крупные и срочные заказы.
🚀 Build a RAG App with Amazon Bedrock – Simplified! 🤖 Have you heard of RAG (Retrieval-Augmented Generation) but not quite sure how it fits into your AI projects? Let me break it down with a simple example using Amazon Bedrock. But first… 🔍 What is a Foundation Model? A foundation model is a large AI model (like Anthropic Claude, Meta Llama, or Amazon Titan) trained on massive datasets. These models are capable of performing a wide range of tasks: answering questions, generating text, translating languages—you name it. With Amazon Bedrock, you can access these models via API without managing infrastructure. 💡 What is RAG (Retrieval-Augmented Generation)? RAG enhances LLMs by injecting real-time, domain-specific knowledge. Instead of relying only on what the model was trained on, you retrieve relevant data from an external source (e.g., a database, file storage—or even an API!) and pass it along with the prompt. This ensures the output is accurate, up-to-date, and relevant. 🎯 Example Use Case: RAG with Amazon Bedrock Let’s say you work at a law firm. You want an AI assistant to answer legal questions using your internal documentation. Here's how you could build it: 🔗 Store documents in Amazon S3 🧠 Use Amazon OpenSearch or Amazon Kendra to index and retrieve relevant chunks of data 🔌 (Optional) Call an external API for real-time data (e.g., legal updates, stock prices, weather, etc.) 🤝 Connect to a Foundation Model via Amazon Bedrock (e.g., Anthropic Claude) 🧾 Pass the retrieved context + user query into the model ✨ Get a tailored, grounded answer For example: User asks: "What are the key clauses in our NDA template?" → RAG system fetches the relevant NDA section from S3 → Model generates a concise explanation Or: User asks: "What’s the latest update on EU data privacy regulations?" → RAG queries a legal API for recent GDPR-related rulings → Model responds using the fresh data ✅ Why use RAG? Reduces hallucinations Ensures responses reflect your own or external real-time data Scales easily with Bedrock’s serverless model 🔧 Tools: Amazon Bedrock Amazon S3 Amazon Kendra/OpenSearch External APIs (optional) LangChain or AWS SDK (for orchestration) 👉 Have you tried RAG yet? Curious how it could fit into your industry? hashtag#AIhashtag#RAGhashtag#AmazonBedrockhashtag#GenerativeAIhashtag#AWShashtag#FoundationalModelshashtag#DataDrivenhashtag#TechInnovationhashtag#LangChainhashtag#MachineLearninghashtag#LLMhashtag#KnowledgeManagementhashtag#APIIntegrationhashtag#GDPRhashtag#EURegulations
Activate to view larger image,
Вы слышали о RAG (Retrieval-Augmented Generation), но не совсем уверены, как он вписывается в ваши проекты ИИ?
Позвольте мне разобрать это на простом примере с использованием Amazon Bedrock. Но сначала…
🔍 Что такое базовая модель?
Базовая модель — это большая модель ИИ (например, Anthropic Claude, Meta Llama или Amazon Titan), обученная на огромных наборах данных. Эти модели способны выполнять широкий спектр задач: отвечать на вопросы, генерировать текст, переводить языки — как хотите. С Amazon Bedrock вы можете получить доступ к этим моделям через API без управления инфраструктурой.
💡 Что такое RAG (Retrieval-Augmented Generation)?
RAG улучшает LLM, внедряя знания в реальном времени, специфичные для предметной области. Вместо того чтобы полагаться только на то, на чем была обучена модель, вы извлекаете соответствующие данные из внешнего источника (например, базы данных, хранилища файлов или даже API!) и передаете их вместе с подсказкой. Это гарантирует точность, актуальность и релевантность выходных данных.
🎯 Пример использования: RAG с Amazon Bedrock
Допустим, вы работаете в юридической фирме. Вам нужен помощник на основе ИИ, который будет отвечать на юридические вопросы, используя вашу внутреннюю документацию. Вот как вы можете это сделать:
🔗 Храните документы в Amazon S3
🧠 Используйте Amazon OpenSearch или Amazon Kendra для индексации и извлечения соответствующих фрагментов данных
🔌 (Необязательно) Вызовите внешний API для получения данных в реальном времени (например, юридических обновлений, цен на акции, погоды и т. д.)
🤝 Подключитесь к модели Foundation через Amazon Bedrock (например, Anthropic Claude)
🧾 Передайте извлеченный контекст + запрос пользователя в модель
✨ Получите индивидуальный обоснованный ответ
Например:
Пользователь спрашивает: «Каковы основные положения в нашем шаблоне NDA?»
→ Система RAG извлекает соответствующий раздел NDA из S3
→ Модель генерирует краткое объяснение
Или:
Пользователь спрашивает: «Каковы последние обновления правил ЕС о конфиденциальности данных?»
→ RAG запрашивает юридический API для последних постановлений, связанных с GDPR
→ Модель отвечает, используя свежие данные
✅ Зачем использовать RAG?
Уменьшает галлюцинации
Гарантирует, что ответы отражают ваши собственные или внешние данные в реальном времени
Легко масштабируется с помощью бессерверной модели Bedrock
🔧 Инструменты:
Amazon Bedrock
Amazon S3
Amazon Kendra/OpenSearch
Внешние API (необязательно)
LangChain или AWS SDK (для оркестровки)
👉 Вы уже пробовали RAG? Интересно, как он может вписаться в вашу отрасль?
Bill Gates on Microsoft at 50, and what’s next for AI and innovation
Bill Gates with a printout of the Altair BASIC source code from 1975, one of Microsoft’s earliest software artifacts. Click to enlarge. (Gates Notes / Ian Allen) https://www.geekwire.com/2025/bill-gates-on-microsoft-at-50-and-the-next-big-opportunities-for-ai-and-innovation/ ".....Послушайте остальную часть разговора ниже и продолжайте читать, чтобы увидеть основные моменты, отредактированные для ясности и краткости. Подпишитесь на GeekWire в Apple Podcasts, Spotify или где бы вы ни слушали. Во многих отношениях история, которую вы рассказываете в этой книге, все еще разворачивается. Мне интересно, видите ли вы какие-либо параллели между ранними днями революции ПК и нынешней эрой ИИ в бизнес-моделях и технологиях. Билл Гейтс: Что ж, эта эра новая и другая, и она является продолжением. Поэтому самое поразительное в эре ПК — это то, как мало людей в нее вовлечено. … Для Пола и меня, мы думали, хорошо, это не только заменит мэйнфреймы и мини-компьютеры, очень дорогие машины до того, но и создаст совершенно новую модальность использования, поэтому мы сказали: «компьютер на каждом столе и в каждом доме». Другие люди говорили: «Что? В каждом доме, что это?» Я описывал это так: вычисления становятся бесплатными. И поскольку они были бесплатными, могли ли мы использовать их для обработки текстов, электронных таблиц, электронной почты или чего-то подобного? Я и другие проповедовали это как этот невероятный инструмент, а затем соединяли их вместе. Теперь происходит то, что интеллект становится свободным. И это даже более глубоко, чем свободные вычисления. Я вернулся и перечитал «Дорогу вперед» 1995 и 1996 годов, вашу книгу в то время, и поговорил с Питером Райнерсоном, одним из ваших соавторов этой книги. Одно из ваших видений было для программных агентов, и сейчас вы только видите, как это начинает происходить. Как вы видите, как это будет развиваться дальше? Гейтс: Ну, все движется довольно быстро. Нам предстоит много работы над надежностью. В определенном смысле, скажем, в медицинской диагностике, мы во многих отношениях лучше людей в этом, программное обеспечение ИИ. Но бывают моменты, когда оно сбивается с пути и совершает ошибки, которые люди не совершают. Существует широкий спектр мнений о том, как быстро мы добьемся этой надежности. Я склонен быть несколько оптимистичным, видя, как именно это будет работать. Здесь есть пыл и некоторые довольно глубокие инструменты в образовании, здравоохранении и научных открытиях. Фонд Гейтса применяет эти вещи. Мы уже видели убойное приложение для ИИ? Это ChatGPT? Гейтс: Ну, ChatGPT — это своего рода горизонтальный инструмент. И они проделали большую работу, привлекая пользователей и создавая импульс. Есть такие вещи, как «организовать все мои сообщения», где, как это работает сегодня, вы переходите к своим текстовым сообщениям, сообщениям почты, сообщениям Instagram, они все разделены. Вы не доверяете компьютеру [организовать] их для вас. … Мы наконец-то меняем это. «Я хочу спланировать поездку с детьми, чтобы посмотреть несколько колледжей. Соберите данные с веб-сайтов, посмотрите мой календарь, покажите мне информацию о колледжах». Вы можете взять очень высокоуровневые задачи, и программное обеспечение будет работать на вашем уровне. Можете ли вы уделить несколько минут размышлениям о том, чем стала Microsoft из того партнерства из двух человек, которое вы с Полом Алленом начали в 1975 году, в то, чем компания является сегодня? Гейтс: Ну, у нас были сумасшедшие идеи на раннем этапе, что программное обеспечение будет важным, и что мы будем знать, как нанимать людей, писать лучшие программные инструменты, и мы будем делать все виды программного обеспечения. Многие из наших конкурентов были компаниями с одним продуктом. … Пока не появилась Google, на самом деле не было другой горизонтальной компании, которая думала бы о программном обеспечении в таком очень, очень широком смысле. К концу 90-х мы были настолько успешны, что даже я мог сказать: «Ладно, мы можем даже сделать несколько ошибок и не исчезнуть». Поскольку я всегда боялся, только в 1998 или 1999 году я сказал: «Ладно. Да. Мы в довольно хорошей форме с тем, что мы сделали». Затем мы переходим к вопросу, адаптированы ли мы к Интернету? И как насчет этого антимонопольного законодательства? И вот у нас есть эта шизофреническая штука: мы настолько устарели, что никому нет до нас дела? Мы настолько доминирующие, что нас нужно разделить на части? Я имею в виду, какая из них? Просто скажите мне, потому что мы имеем дело с обеими. В обеих есть доля правды. Стив взял на себя управление и вложил в это свою умопомрачительную энергию. И мы оба, Стив и я, говорили совету директоров: эй, мы думаем, что Сатья — тот самый. Я знал, что он отлично справится. Он справился даже лучше, чем я ожидал. Так что это здорово. Я всегда думал: «О, Боже, я уйду, и компания облажается, и я не буду знать, что делать. Мне вернуться? Мне не вернуться? О, это будет мучительно». Тот факт, что, как и многие другие компании, дела у нее идут невероятно хорошо, — это для меня большой кайф. Какими, по-вашему, будут следующие десять лет для Microsoft? Есть ли у вас представление о том, куда может пойти эта компания и где она может оказаться через десятилетие? Гейтс: Что ж, сегодня программное обеспечение важнее, чем когда-либо. Мы столкнемся с проблемой успеха в том, насколько мощным является программное обеспечение. Все хотят этого. Это гиперконкуренция. Я действительно думаю, что гиперконкуренция будет выгодна пользователям. Темпы инноваций должны быть очень, очень быстрыми, несмотря на необходимые капитальные затраты, и эти инструменты будут очень быстро совершенствоваться. Я надеюсь, что Microsoft сможет стать лидером. Я, конечно, провожу мозговой штурм с продуктовыми группами в Microsoft о том, что мы делаем, пытаясь убедиться, что Microsoft лидирует, будь то ИИ для написания ПО или ИИ для разработки лекарств.
[Editor’s Note: Microsoft @ 50 is a year-long GeekWire project exploring the tech giant’s past, present, and future, recognizing its 50th anniversary in 2025. Learn more and register here for our special Microsoft @ 50 event, March 20, 2025, in Seattle.]
Back in 2008, during an interview at Microsoft headquarters shortly before leaving his day-to-day role, Bill Gates bluntly dismissed the question of whether he could ever imagine needing to return to run the company full-time.
“No,” he said. Next question.
But in a recent interview, nearly 17 years later, Gates acknowledged that he did grapple with this concern at times in his Microsoft career, when he considered what it would be like after eventually stepping down.
“I always thought, Oh God, I’m going to leave and the company’s going to get screwed up, and I’m not going to know what to do,” he recalled. “Do I go back? Do I not go back? Oh, this is going to be torturous.”
He hasn’t needed to deal with that dilemma. Microsoft’s continued strength has been “a great thrill for me,” he said.
As planned when he left his full-time role, Gates still contributes as a part-time advisor to the company. He meets regularly with Microsoft CEO Satya Nadella and the company’s technical and product teams to review their work, and offer feedback, direction and insights.
In that role, he takes the long view — describing the rise of artificial intelligence as the repetition of a pattern that he recognized in the early days of the PC revolution.
“Now, what’s happening is intelligence is becoming free,” he said, “and that’s even more profound than computing becoming free.”
For this latest installment in our Microsoft @ 50 series, we talk with Gates about the company’s 50th anniversary, parallels between AI and the early days of the PC, and where he sees the next big opportunities for innovation.
This is part of a wide-ranging interview coinciding with the release of his new book, Source Code: My Beginnings. We published Part 1 of the interview last week, focusing on his upbringing in Seattle, the influential people in his life, the early days of the company, and his perspective on events now unfolding in the world.
Listen to the rest of the conversation below, and continue reading for highlights, edited for clarity and brevity. Subscribe to GeekWire in Apple Podcasts, Spotify, or wherever you listen.
In many ways, the story that you tell in this book is still unfolding. I’m wondering if you see any parallels between the early days of the PC revolution and the current era of AI in the business models and technologies.
Bill Gates: Well, this era is new and different, and it’s a continuation.
So the mind-blowing thing about the PC era is how few people are involved. … For Paul and I, we thought, OK, this is not only going to replace mainframes and minicomputers, very expensive machines before then, but also create a whole new modality of use, which is why we said, “a computer on every desk and in every home.” Other people were like, “What? In every home, what’s that?”
My way of describing that was that computing was becoming free. And because it was free, could we use it for word-processing or spreadsheets or email, or things like that? I and others we were evangelizing this as this incredible tool and then connecting them together.
Now, what’s happening is intelligence is becoming free. And that’s even more profound than computing becoming free.
I went back and reread The Road Ahead from 1995 and 1996, your book at the time, and spoke with Peter Rinearson, one of your coauthors on that book. One of your visions was for software agents, and you’re now just seeing this start to happen. How do you see this unfolding from here?
Gates: Well, it’s moving pretty quickly. We have a lot of work to do on reliability. In a certain sense, say, doing a medical diagnosis, we in many respects are better than humans at that, the AI software. But there are times where it gets off the path and it’ll make mistakes humans won’t make.
There’s a wide range of opinions of how quickly we’ll drive that reliability for it. I tend to be somewhat on the optimistic side, seeing exactly how that’s going to work. There’s a fervor here and some pretty profound tools in education and in health and scientific discovery. The Gates Foundation is applying these things.
Have we yet seen the killer app for AI? Is it ChatGPT?
Gates: Well, ChatGPT is kind of a horizontal tool. And they’ve done a great job getting user usage and momentum.
There are things like, “organize all my messages,” where the way it works today, you go into your text messages, your mail messages, your Instagram messages, they’re all separate. You don’t really trust the computer to [organize] them for you. …
We’re finally changing that. “I want to plan a trip with my kids to go see some colleges. Gather data from websites, look at my calendar, show me the information about the colleges.” You can take very high-level tasks, and the software will be working at your level.
Bill Gates with early PCs and a teletype machine that was used for programming. Click to enlarge. (Gates Notes / Ian Allen)
Can you take a few moments to reflect on what Microsoft has become from that two-person partnership that you and Paul Allen started in 1975, to what the company is today?
Gates: Well, we had crazy ideas early on that software would be important, and that we would know how to hire people, write better software tools, and we would do just all kinds of software.
Many of our competitors were single-product companies. … Until Google comes along, there really is not another horizontal company that’s thinking about software in this very, very broad way.
By the late ’90s, we were so successful that even I could say, “OK, we might even make a few mistakes and not disappear.” Because I was always running scared, it’s not until 1998 or ’99 that I said, “OK. Yeah. We are in pretty good shape with what we’ve done.”
Then we get into the question of, are we adapted to the internet? And what about this antitrust thing?
And so we have this schizophrenic thing: are we so obsolete that nobody should care about us? Are we so dominant that we have to be split into pieces? I mean, which one is it? Just tell me because we’re dealing with both of those. Both had an element of truth to them.
Steve took over and put his mind-blowing energy into it. And both Steve and I were saying to the board, hey, we think Satya’s the one. I knew he would do a great job. He’s done even better than I expected.
So, it’s nice. I always thought, “Oh, God, I’m going to leave, and the company is going to get screwed up, and I’m not going to know what to do. Do I go back? Do I not go back? Oh, this is going to be torturous.” The fact that, along with many other companies, it’s doing incredibly well is a great thrill for me.
What do you hope the next ten years will be like for Microsoft? Do you have a sense for where this company could go and where it might be in another decade?
Gates: Well, software is more important today than ever. We are going to face the challenge of success in how powerful the software is. Everybody wants that. This is hyper competitive.
I do think that hyper competition will be beneficial to users. The pace of innovation will have to be very, very fast despite the capital costs involved, and these tools will just improve very rapidly.
I hope Microsoft can lead the way. I certainly brainstorm with the product groups at Microsoft about what we’re doing, trying to make sure, whether it’s AI to help write software or AI to do drug discovery, that Microsoft is in the lead.
Have you heard of RAG (Retrieval-Augmented Generation) but not quite sure how it fits into your AI projects?
Let me break it down with a simple example using Amazon Bedrock. But first…
🔍 What is a Foundation Model?
A foundation model is a large AI model (like Anthropic Claude, Meta Llama, or Amazon Titan) trained on massive datasets. These models are capable of performing a wide range of tasks: answering questions, generating text, translating languages—you name it. With Amazon Bedrock, you can access these models via API without managing infrastructure.
💡 What is RAG (Retrieval-Augmented Generation)?
RAG enhances LLMs by injecting real-time, domain-specific knowledge. Instead of relying only on what the model was trained on, you retrieve relevant data from an external source (e.g., a database, file storage—or even an API!) and pass it along with the prompt. This ensures the output is accurate, up-to-date, and relevant.
🎯 Example Use Case: RAG with Amazon Bedrock
Let’s say you work at a law firm. You want an AI assistant to answer legal questions using your internal documentation. Here's how you could build it:
🔗 Store documents in Amazon S3
🧠 Use Amazon OpenSearch or Amazon Kendra to index and retrieve relevant chunks of data
🔌 (Optional) Call an external API for real-time data (e.g., legal updates, stock prices, weather, etc.)
🤝 Connect to a Foundation Model via Amazon Bedrock (e.g., Anthropic Claude)
🧾 Pass the retrieved context + user query into the model
✨ Get a tailored, grounded answer
For example:
User asks: "What are the key clauses in our NDA template?"
→ RAG system fetches the relevant NDA section from S3
→ Model generates a concise explanation
Or:
User asks: "What’s the latest update on EU data privacy regulations?"
→ RAG queries a legal API for recent GDPR-related rulings
→ Model responds using the fresh data
✅ Why use RAG?
Reduces hallucinations
Ensures responses reflect your own or external real-time data
Scales easily with Bedrock’s serverless model
🔧 Tools:
Amazon Bedrock
Amazon S3
Amazon Kendra/OpenSearch
External APIs (optional)
LangChain or AWS SDK (for orchestration)
👉 Have you tried RAG yet? Curious how it could fit into your industry?
hashtag#AI hashtag#RAG hashtag#AmazonBedrock hashtag#GenerativeAI hashtag#AWS hashtag#FoundationalModels hashtag#DataDriven hashtag#TechInnovation hashtag#LangChain hashtag#MachineLearning hashtag#LLM hashtag#KnowledgeManagement hashtag#APIIntegration hashtag#GDPR hashtag#EURegulations